GEOTECHNOLOGIEN Das System Erde: Vom Prozessverst채ndnis zum Management
EIN GEOWISSENSCHAFTLICHES FORSCHUNGS- UND ENTWICKLUNGSPROGRAMM VON
GEOTECHNOLOGIEN Das System Erde: Vom Prozessverständnis zum Management
EIN GEOWISSENSCHAFTLICHES FuE-PROGRAMM VOM BUNDESMINISTERIUM FÜR BILDUNG UND FORSCHUNG (BMBF) UND DER DEUTSCHEN FORSCHUNGSGEMEINSACHFT (DFG)
Programmkonzeption und Redaktion:
H.-P. Bähr E. Ehlers R. Emmermann H.-P. Harjes J. Lauterjung V. Mosbrugger A. Rudloff F. Seifert L. Stroink J. Thiede G. Wefer F.-W. Wellmer
Die Erde ist ein dynamischer Planet, der sich – angetrieben durch großräumige konvektive Stoff- und Energieumlagerungsvorgänge in seinem Inneren und durch vielfältige Einwirkungen von außen – in einem ständigen Wandel befindet. Es hat sich deshalb die Erkenntnis durchgesetzt, dass wir den Lebensraum Erde nur verstehen, wenn wir die Erde als System, das heißt im Zusammenwirken aller ihrer Komponenten – der Geosphäre, Kryosphäre, Hydrosphäre, Atmosphäre und Biosphäre – betrachten.
Vorwort
D
ie Zukunft der Menschheit und unserer Gesellschaft wird entscheidend davon abhängen, wie rasch ein nachhaltiges Erdmanagement entwickelt und global umgesetzt werden kann. Es ist eine der zentralen Herausforderungen für die Geowissenschaften, dafür die wissenschaftlichen Grundlagen und technologischen Voraussetzungen zu erarbeiten. Um dieser Verpflichtung gerecht zu werden und die in Deutschland bestehende Forschungskompetenz entsprechend zu bündeln, wurde von der Senatskommission für Geowissenschaftliche Gemeinschaftsforschung der Deutschen Forschungsgemeinschaft – kurz: Geokommission – die Programmschrift „GEOTECHNOLOGIEN“ erarbeitet und 1999 den Forschungsförderinstitutionen und der Öffentlichkeit vorgestellt. Sie stellt die Grundlage für das gleichnamige Sonderprogramm dar, das seit nunmehr vier Jahren durch das Bundesministerium für Bildung und Forschung (BMBF) und die Deutsche Forschungsgemeinschaft (DFG) gefördert wird. Mit der vorliegenden Neuauflage dieser Programmschrift soll eine erste Bilanz gezogen und eine notwendige Anpassung der Forschungsthemen vorgenommen werden. Ohne Zweifel hat das FuE-Programm GEOTECHNOLOGIEN schon jetzt viel bewegt. Von den 13 für eine Daseinsvorsorge besonders relevanten Kernthemen werden inzwischen sieben im Rahmen von größeren Verbundprojekten bearbeitet. Bei der Erforschung der Gashydrate und der satellitengestützten Erdbeobachtung nehmen deutsche Forscher dank dieses Sonderprogramms inzwischen sogar eine weltweite wissenschaftliche und technologische Spitzenposition ein. Die bisherigen Forschungsarbeiten machen aber auch die großen Kenntnislücken sichtbar. Insbesondere zeigt sich immer deutlicher, dass in der Dynamik des Systems Erde neben langsamen auch sehr schnelle Veränderungen eine wichtige Rolle spielen, ohne dass wir bisher die komplexen Rückkopplungsmechanismen und nicht-linearen Schwellenwertreaktionen verstehen. Dies mahnt uns, intensiv an einem Systemverständnis der Erde als unabdingbare Voraussetzung für ein Erdmanagement zu arbeiten.
Angesichts des Erfolges und der internationalen Sichtbarkeit des FuE-Programms GEOTECHNOLOGIEN erscheint eine Weiterführung zwingend. In der Fortsetzungsphase müssen die bisher noch nicht bearbeiteten Kernthemen in Angriff genommen werden: Dazu gehören so verschiedene und hochaktuelle Forschungsgebiete wie die Entwicklung von „Frühwarnsystemen gegen Naturkatastrophen“, die nachhaltige „Nutzung und der Schutz des Untergrundes“ oder „Das Gekoppelte System Erde – Leben“. Gleichzeitig sind aber auch neue Forschungsinitiativen zu den bereits in der ersten Phase vorangetriebenen Themen zu entwickeln und zu fördern. Die hier vorgelegte Neuauflage der Programmschrift GEOTECHNOLOGIEN stellt dafür die notwendige inhaltliche Grundlage dar. In Zusammenarbeit mit zahlreichen Wissenschaftlern wurden nahezu alle Kapitel grundlegend überarbeitet. Die Ergebnisse bereits laufender Forschungsvorhaben werden dabei berücksichtigt und in die rasche Entwicklung integriert. Um den wachsenden Anforderungen an ein nachhaltiges Erdmanagement gerecht zu werden, ergibt sich überdies eine immer stärkere Verzahnung mit den Nachbardisziplinen der Natur- und Ingenieurwissenschaften und den Sozialwissenschaften. Wie bisher wendet sich auch die Neuauflage der Programm-Konzeption sowohl an politische Entscheidungsträger als auch an die „scientific community“. Sie ist aufgefordert, die Umsetzung mit innovativen Forschungskonzepten voranzutreiben. Die Komplexität der Aufgaben erfordert in der Regel größere Verbundprojekte und technologische Neuentwicklungen. Die dafür notwendigen finanziellen Aufwendungen sind durch die hohe gesellschaftliche Relevanz der Forschungsarbeiten gerechtfertigt. Unser Dank gilt all den Wissenschaftlern, die mit Überzeugung und ungewöhnlichem Engagement das FuE-Programm GEOTECHNOLOGIEN entwickeln und umsetzen, sowie dem Bundesministerium für Bildung und Forschung (BMBF) und der Deutschen Forschungsgemeinschaft (DFG) für die finanzielle Unterstützung.
V. Mosbrugger
R. Emmermann
Vorsitzender des Koordinierungsausschusses GEOTECHNOLOGIEN
Programmkomitee GEOTECHNOLOGIEN
INHALTSVERZEICHNIS
GEOTECHNOLOGIEN............................................................................................
V
Geowissenschaften – Perspektiven für unseren Planeten .................................................
VI
Verstehen, Nutzen, Schützen – Wie die Geowissenschaften dem Menschen und seiner Umwelt helfen .........................................................................
VI
Konzertierte Aktion für Spitzenleistung .............................................................................
IX
FuE Programm GEOTECHNOLOGIEN – Stand der Umsetzung....................................
IX
Forschungsschwerpunkte Erfassung des Systems Erde aus dem Weltraum ..............................................................
1
Das Erdinnere als treibende Kraft geowissenschaftlicher Prozesse .................................
9
Kontinentränder: Brennpunkte im Nutzungs- und Gefährdungspotenzial der Erde ........
19
Tomografie der Erdkruste – Von der Durchschallung zum Echtzeitmonitoring ...............
29
Sedimentbecken: Die größte Ressource der Menschheit ...................................................
41
Gashydrate im Geosystem ................................................................................................
51
Stoffkreisläufe: Bindeglied zwischen Geosphäre und Biosphäre .....................................
61
Das gekoppelte System Erde – Leben: Dynamik der Biosphäre und Steuerung der globalen Umwelt ................................................................................
71
Erkundung, Nutzung und Schutz des unterirdischen Raumes ..........................................
85
Mineraloberflächen: Von atomaren Prozessen zur Geotechnik ........................................
93
Frühwarnsysteme im Erdmanagement ..............................................................................
101
Informationssysteme im Erdmanagement ........................................................................
111
Globale Klimaänderungen – Ursachen und Auswirkungen .............................................
117
Liste der Autoren .............................................................................................................
125
Verzeichnis der Abkürzungen ........................................................................................
126
GEOTECHNOLOGIEN
Das anhaltende Wachstum der Weltbevölkerung, die immer intensivere Nutzung unseres Planeten und seiner Ressourcen, sowie seine Veränderung im Rahmen einer beispiellosen zivilisatorisch-technischen Entwicklung, erfordern ein nachhaltiges und international abgestimmtes Handeln zum Erhalt des Lebensraums Erde. Dies wurde auf dem Weltgipfel für Nachhaltige Entwicklung in Johannesburg im August/September 2002 noch einmal eindrucksvoll bestätigt. In der Umsetzung dieser wichtigen Zukunftsaufgabe kommt den Geowissenschaften mit ihrer Erdsystemforschung eine zentrale Rolle zu. Sie können aufgrund ihres Systemverständnisses der Erde konkrete Konzepte und Lösungsansätze anbieten, die sich an dem Leitbild der Nachhaltigen Entwicklung orientieren. Die Erde ist ein dynamischer Planet, der sich – angetrieben durch konvektive Stoff- und Energieströme in seinem Inneren und durch vielfältige Einwirkungen von außen – in einem ständigen Wandel befindet. Es hat sich deshalb die Erkenntnis durchgesetzt, dass wir den Lebensraum Erde nur verstehen, wenn wir die Erde als System begreifen, in dem die Geosphäre, Kryosphäre, Hydrosphäre, Atmosphäre und Biosphäre auf komplexe Weise miteinander verbunden sind. Prozesse, die in und auf der Erde ablaufen, sind miteinander gekoppelt und bilden verzweigte Ursache-Wirkungs-Ketten, die durch den Eingriff des Menschen in die natürlichen Gleichgewichte und Kreisläufe nachhaltig beeinflusst werden können. Die rasche Entwicklung der Messtechnik und die modernen Computertechnologien haben den Geowissenschaften in den letzten Jahren völlig neue Möglichkeiten an die Hand gegeben. Sie sind heute in der Lage, Prozesse in allen zeitlichen und räumlichen Skalenbereichen hochaufgelöst zu erfassen, zu quantifizieren und zu modellieren. Das geowissenschaftliche Instrumentarium reicht von speziellen Satelliten und raumgestützten Messsystemen über die verschiedenen Verfahren der geophysikalischen Tiefensondierung und Forschungsbohrungen bis hin zu Laborexperimenten unter simulierten in situ-Bedingungen, sowie mathematischen Ansätzen zur Systemtheorie und Modellierung von Geoprozessen. Die Nutzung und Weiterentwicklung dieses Potenzials bedürfen einer gemeinsamen Anstrengung von Wissenschaft und Wirtschaft. Seine Anwendung auf die Erforschung unseres Planeten dient dem Ziel, das System Erde in all seinen Kompartimenten zu verstehen, globale Veränderungen infolge natürlicher Vorgänge von anthropogen bedingten Veränderungen zu unterscheiden und relevante Prozesse mit ihren Wechselbeziehungen zu quantifizieren. Auf der Grundlage dieses System- und
Prozessverständnisses sollen Strategien für die Sicherung und umweltverträgliche Gewinnung natürlicher Ressourcen, die Nutzung des ober- und unterirdischen Raumes, die Deponierung von Abfallstoffen, die Beurteilung der Klima- und Umweltentwicklung sowie für die Vorsorge vor Naturkatastrophen und der Minderung ihrer Folgen entwickelt werden. Nur durch ein derartiges, international abgestimmtes und global umgesetztes „Erdmanagement“ wird es möglich sein, der Verpflichtung gerecht zu werden, die Erde als Lebensraum zu bewahren und zukünftigen Generationen eine angemessene Lebensgrundlage zu erhalten. Anliegen dieser Programmschrift ist es, die strategische Ausrichtung der deutschen geowissenschaftlichen Forschung aufzuzeigen. Sie umfasst 13 interdisziplinär orientierte Themenschwerpunkte, die als Schlüsselthemen der geowissenschaftlichen Forschung in Deutschland angesehen werden können. Durch die Bearbeitung grundlegender prozessorientierter Fragestellungen können somit wichtige Beiträge zu den drängenden gesellschaftsrelevanten und ökologischen Herausforderungen der Zukunft geleistet werden. Das Gesamtpaket erfordert eine Finanzierung in Höhe von circa 30 Millionen Euro pro Jahr. Es wird in Teilen und zeitlich abgestuft realisiert. Dazu wurde im Jahr 2000 das FuE-Programm GEOTECHNOLOGIEN, als gemeinsames Sonderprogramm des Bundesministeriums für Bildung und Forschung (BMBF) und der Deutschen Forschungsgemeinschaft (DFG) eingerichtet. Ein Teil der Themenschwerpunkte befindet sich bereits in der Förderung (siehe S. IX). Alle Themenschwerpunkte repräsentieren das vielfältige und breite Spektrum geowissenschaftlicher Forschung in Deutschland. Das FuEProgramm GEOTECHNOLOGIEN gründet sich damit auf ein – auch im internationalen Vergleich – beachtliches wissenschaftliches, methodisches und technologisches Know-how, auf dem auch in Zukunft erfolgsversprechend aufgebaut werden kann.
V
Geowissenschaften – Perspektiven für unseren Planeten
VI
Das Wissen um die Verletzlichkeit unseres Planeten Erde als Lebensraum des Menschen hat in den letzten Jahren Eingang in breite Kreise unserer Gesellschaft gefunden. Nicht nur die verheerenden Folgen von Erdbeben oder Vulkanausbrüchen, die uns Dank moderner Technik nahezu täglich aus allen Teilen der Welt bedrückend nah vor Augen geführt werden, auch die Szenarien einer globalen Klimaveränderung oder das Bedürfnis einer stark wachsenden Weltbevölkerung nach mehr Energie, mehr Wasser und mehr Raum haben in der Öffentlichkeit zu einem gesteigerten Bewusstsein für das äußerst anfällige System Erde geführt. Allgemein akzeptiert ist dabei, dass ein Großteil der ökologischen Probleme „hausgemacht“ ist, das heißt erst durch den Menschen verursacht wird. War der Eingriff des Menschen in seine Umwelt bis vor kurzem noch einer von zahlreichen Prozessen, die unseren Planeten einem steten Wandel unterwerfen, so haben im modernen Industriezeitalter die menschlichen Aktivitäten Veränderungen hervorgerufen, die in ihrer Größenordnung den natürlichen Veränderungen von Jahrmillionen entsprechen. Der Mensch ist damit selbst zu einem geologischen Faktor geworden. Fragen nach den Ursachen und den Möglichkeiten einer verlässlichen Vorsorge werden heute nicht mehr nur von den unmittelbar Betroffenen gestellt. Zwar bedeuten Störungen des ökologischen Gleichgewichts – ob anthropogen oder natürlich – nach wie vor gravierende Einschnitte in die jeweiligen Lebensbedingungen; langfristig schränken sie jedoch nicht nur die Lebensqualität des Einzelnen ein, sie stellen vielmehr eine potenzielle Gefährdung des globalen Gesellschafts- und Wirtschaftssystems dar. Dies gilt in besonderer Weise für die Umweltbelastungen, die inzwischen weltweite Ausmaße angenommen haben, und deren Folgen, zum Beispiel für die Klimaentwicklung, noch nicht absehbar sind. Von globaler Dimension sind aber auch die Auswirkungen von Naturkatastrophen. Ihre Anzahl ist in den vergangenen Jahrzehnten keineswegs angestiegen. Überproportional gewachsen sind dagegen ihre zum Teil verheerenden Folgen: regional, aufgrund einer zunehmenden Konzentration von Menschen und Wirtschaftsgütern in gefährdeten Gebieten, und global durch das Zusammenwachsen der Weltwirtschaft. Dadurch werden heute auch solche Länder, die durch ihre geographische Lage nicht direkt gefährdet sind, indirekt von den Folgen von Naturkatastrophen in Mitleidenschaft gezogen. Würde beispielsweise ein vergleichbares Erbeben, wie es die japanische Küstenstadt Kobe im Januar 1995 heimsuchte, die Hauptstadt Tokyo treffen, so hätte dies nicht nur einen unabsehbaren Verlust an Menschenleben und Wirtschaftsgütern zur Folge. Wegen der herausragenden Stellung Tokyos im Weltwirtschaftshandel wäre auch eine dramatische Destabilisierung des Weltkapitalmarktes nicht auszuschließen. Es wächst daher das Bewusstsein, dass ein nachhalti-
ges und international abgestimmtes Handeln zum Erhalt des Lebensraums Erde notwendig ist. Den Geowissenschaften fällt in der Umsetzung dieser Aufgabe eine zentrale Rolle zu, da sie aufgrund ihrer Kenntnis um die Entwicklung und Dynamik unseres Planeten und der ihn steuernden Prozesse über ein umfassendes Systemverständnis verfügen.
Verstehen, Nutzen, Schützen – Wie die Geowissenschaften dem Menschen und seiner Umwelt helfen
Forschungsgegenstand der Geowissenschaften ist das System Erde, das heißt der Planet, auf dem wir leben, mit den in seinem Inneren und an der Oberfläche ablaufenden chemischen, physikalischen und biologischen Prozessen sowie den Wechselwirkungen zwischen den Teilsystemen Geo-, Kryo-, Hydro-, Atmo- und Biosphäre. Die raum-zeitliche Untersuchung des Systems Erde erfolgt in allen Skalenbereichen, von der globalen Beobachtung unseres Planeten aus dem Weltraum bis in die atomare Dimension der Kristallgitter, von geologischen Zeiträumen für die Bildung von Gebirgen (Millionen Jahre) bis in den Mikrosekundenbereich bei Bruchvorgängen in Gesteinen (Erdbeben). Dementsprechend wird ein breites Spektrum an Methoden und Techniken eingesetzt, das von speziellen Satelliten und raumgestützten Messsystemen über hochauflösende Verfahren der geophysikalischen Tiefenerkundung bis hin zu Laborexperimenten reicht, in denen zum Beispiel die in Erdkruste und Erdmantel existierenden Druckund Temperaturbedingungen naturgetreu nachempfunden werden können. Die modernen Computertechnologien haben den Geowissenschaftlern zudem völlig neue Möglichkeiten an die Hand gegeben, Prozesse in allen zeitlichen und räumlichen Skalenbereichen hochaufgelöst zu erfassen und quantitativ zu modellieren. Forschungsziel ist es, diese Prozesse und ihre Wechselbeziehungen zu verstehen sowie die Einwirkungen des Menschen auf natürliche Gleichgewichte und Kreisläufe abzuschätzen und auf der Grundlage dieses System- und Prozessverständnisses zu einem nachhaltig orientierten Erdmanagement zu gelangen. Dabei spielen die Ressourcensicherung und die umweltschonende Ressourcennutzung eine zentrale Rolle. In einem umfassenderen Sinne bezieht sich der Begriff Ressourcen dabei nicht nur auf die klassischen Energieträger und Rohstoffe, sondern auch auf Wasser, Raum und Luft. Unter gleichrangiger Berücksichtigung dieser drei Komponenten – Prozesse (Verständnis), Ressourcen (Nutzung) und Erdmanagement (Schutz) – konzentriert sich das FuE-Programm GEOTECHNOLOGIEN auf 13 ausgewählte Kernbereiche, die als Schlüsselthemen für die zukünftige Orientierung geowissenschaftlicher Forschung angesehen werden können. Entsprechend der integrierenden und globalen Arbeitsweise der modernen Geowissenschaften wird dabei der interdisziplinären Zu-
VII
sammenarbeit und internationalen Kooperation große Bedeutung beigemessen. Dies gilt insbesondere für die benachbarten Natur- und Ingenieurwissenschaften und in zunehmenden Maße für die Sozial- und Wirtschaftswissenschaften. Das breite und differenzierte Themenspektrum der Geowissenschaften eröffnet darüber hinaus vielfältige Möglichkeiten, Grundlagenwissen in neue Produkte, Verfahren und Dienstleistungen umzusetzen und damit neue wirtschaftliche Anwendungsfelder zu erschließen. Die drei Komponenten des Programms sind eng miteinander gekoppelt und können in Form eines Wirkungsdreiecks dargestellt werden. Auf diesen Leitvorstellungen beruhen die 13 großen Themenschwerpunkte des FuE-Programms GEOTECHNOLOGIEN: Zu einer Schlüsseltechnologie der globalen Erforschung von Prozessen ist in den letzten Jahren die Erfassung des Systems Erde aus dem Weltraum geworden. Völlig neue Perspektiven der Informationsgewinnung aus geophysikalischen Erkundungs- und Abbildungsmethoden ergeben sich auch durch den Einsatz moderner Computertechnologien. Die Entwicklung weist hier in Richtung
einer Echtzeitbeobachtung von dynamischen Strukturen, das heißt einer 4-D-Tomographie der Lithosphäre. Das System Erde wird weitgehend durch das Erdinnere als treibender Kraft geologischer Prozesse bestimmt. Damit kommt der Erkundung der stofflichen Zusammensetzung und der Struktur der Erde sowie der im Untergrund ablaufenden Prozesse, vom oberflächennahen Bereich bis in große Erdtiefen, eine zentrale Rolle für die Nutzung des Untergrundes oder auch die Vorsorge vor Naturgefahren zu. Ein vielversprechendes Einsatz- und Testgebiet einer 4D-Tomographie sind die aktiven Kontinentränder als Regionen der Erde, in denen geologische Prozesse besonders rasch ablaufen. Kontinentränder sind als Lebensraum für den Menschen von stark zunehmender Bedeutung, da sie „Ballungsräume“ mit Wirtschaftsmärkten darstellen. Aktive Kontinentränder bergen ein besonderes Gefahrenpotenzial durch starke Erdbeben oder Seebeben (Tsunamis) sowie hochexplosiven Vulkanismus. Sie zeichnen sich ebenso wie die passiven Kontinentalränder aber gleichzeitig durch bedeutende Vorkommen von Rohstoffen und fossilen Energieträgern aus. Vor dem Hintergrund der Ressourcensicherung spie-
VIII
len Sedimentbecken eine herausragende Rolle. In Sedimentbecken werden wesentliche Ressourcen für die Zukunft der Menschheit gebildet und gespeichert. Dazu gehören die fossilen Energieträger, die zu 90 % die Weltenergieversorgung sicherstellen, ebenso wie der größte Teil des für die Trinkwasserversorgung benötigten Grundwassers. Daneben sind Sedimentbecken Quellen für viele nichtmetallische Rohstoffe, Baustoffe, Zementrohstoffe und Düngemittel. Inzwischen gewinnen sie eine zunehmende Bedeutung als Standorte für Deponien hochtoxischer und radioaktiver Abfälle sowie als Speicher für Gase, Flüssigkeiten und Feststoffe. Die wachsende Verantwortung der Geowissenschaften im Rahmen eines integrierenden Umweltmanagements wird insbesondere auch bei der Erkundung, der Nutzung und dem Schutz des unterirdischen Raumes deutlich. Mit der Bevölkerungszunahme wird bei der Schaffung von Versorgungs- und Verkehrswegen, bei der Erschließung und Speicherung von fossilen Energieträgern und bei der Deponierung von Abfallstoffen in zunehmendem Maße der unterirdische Raum einbezogen werden müssen. Hierzu bedarf es innovativer Methoden der Planung, Herstellung und Qualitätssicherung von Horizontalbohrungen, Tunneln und Mikrotunneln für Ver- und Entsorgungsleitungssysteme im Untergrund von Siedlungs- und Industriegebieten. Darüber hinaus werden neue geotechnische Sicherheitskonzepte für die Nutzung untertägiger Bereiche als Wirtschaftsraum, als Untertagespeicher und zur Endlagerung umweltgefährdender Stoffe, u.a. zur unterirdischen Deponierung des Treibhausgases CO2 , benötigt. Zu entwickeln sind zuverlässige, praktikable Kriterien und Methoden zur Bewertung und Quantifizierung der Nutzungspotenziale und -risiken. Die nachhaltige Nutzung des Lebensraums Erde erfordert ein deutlich verbessertes Verständnis der Wechselwirkungen und Koppelungsmechanismen der Teilsysteme Geosphäre, Hydrosphäre, Atmosphäre und Biosphäre. Umwelt- und Klimaänderungen zeigen kurzfristige Schwankungen und langfristige Trends. Ablauf, Schnelligkeit und Folgen von Schwankungen sind in erdgeschichtlichen Dokumenten der Geo-Biosphäre überliefert. Das gekoppelte System Erde – Leben gibt ein Maß für Eigenschaften, Raten und Schwankungsbreiten der Prozesse, die die Evolution von kleinsten Mikroben bis zum Menschen kontrollieren und beeinflussen. Vergleiche der heutigen Situation mit der erdgeschichtlichen Entwicklung liefern den notwendigen Rahmen, um die Sensibilität des Systems Erde – Leben gegenüber Änderungen der Geosphäre, Hydrosphäre, Atmosphäre und Biosphäre zu verstehen und ihre Auswirkungen auf den Menschen und seinen Lebensraum zu identifizieren. Neuere Forschungen zeigen dabei immer deutlicher, wie sehr gerade auch Organismen das System Erde beeinflussen, wobei sie Klima- und Umweltveränderungen verursachen, dämpfen oder positiv verstärken können. Vor dem Hintergrund möglicher natürlicher Klimaänderungen stellt die Untersuchung der anthropogen verursachten Klimaeinflüsse und -änderungen eine Herausforderung an die Wissenschaft dar. Wenn die aktuelle
Frage nach dem anthropogenen Einfluss auf das Klima und die Umwelt zuverlässig beantwortet werden soll, müssen Geschwindigkeit, Art und Ausmaß von natürlichen Klimavariationen erforscht und ihre Ursachen erkannt werden. Erst dadurch wird es möglich, natürliche von anthropogen bedingten Klimaveränderungen verlässlich zu unterscheiden. Aus geologisch-klimatologischen Archiven, wie dem Eis vergletscherter Gebiete und marinen sowie kontinentalen Sedimenten, können physikalische, chemische und biologische Messgrößen rekonstruiert werden, die zur Erstellung von Klimamodellen und zur Validierung von Klimaprognosen dienen. Die anthropogene Beeinflussung der Ökosysteme führt zu einer nachhaltigen Veränderung der Stoffhaushalte in Geosphäre, Kryosphäre, Hydrosphäre, Atmosphäre und Biosphäre. Spätestens seit der industriellen Revolution hat dieser Einfluss eine Dimension angenommen, die in vielen Fällen den natürlichen Veränderungen – zumindest bei einzelnen Stoffen – entspricht und diese manchmal sogar übertrifft. Die Eingriffe ergeben sich durch die Entnahme und Nutzung von Rohstoffen sowie durch die Rückgabe an die „Natur“ in Form von Abfall, Abwasser und Abgas. Schwerpunktmäßig sollen die Stoffkreisläufe der Elemente Kohlenstoff und Schwefel untersucht werden, da diese Stoffe vom Menschen in erheblichen Mengen in Umlauf gebracht und damit ihre natürlichen Stoffflüsse besonders stark beeinflusst werden. Nach neuesten Abschätzungen und Berechnungen sind die größten Methanvorkommen der Erde an Gashydrate gebunden. Sie stellen damit eine mögliche Einflussgröße für die globale Klimaänderung dar. Die Masse des in Hydraten gebundenen klimarelevanten Methans übersteigt die des heute in der Atmosphäre befindlichen Methans um das circa 3.000fache. In der gegenwärtigen Klimadiskussion aber findet Methan im Vergleich zu Kohlendioxid nur wenig Beachtung, obwohl sein „Treibhauspotenzial“ wesentlich größer als das des Kohlendioxids ist. Chemische Reaktionen und umweltrelevante Austauschprozesse zwischen den einzelnen Teilsystemen werden in den meisten Fällen durch die physikalischchemischen Eigenschaften von Mineraloberflächen gesteuert. Allein die Erdkruste beinhaltet mehrere Hundertmillionen Quadratkilometer dieser Oberflächen, die wie eine riesige „chemische Fabrik“ wirken. Durch die direkte Beobachtung von Reaktionsmechanismen im atomaren Maßstab können fast alle anthropogen beeinflussten regionalen und globalen Prozesse verstanden, unter dem Gesichtspunkt der Prozessoptimierung und der Umweltverträglichkeit verbessert und direkt für konkrete Umsetzungen in neue technische Produkte genutzt werden. Naturkatastrophen, wie zum Beispiel Erdbeben, Vulkanausbrüche, Wirbelstürme, Hochwasser oder Hangrutschungen, haben in den letzten zwei Jahrzehnten in der ganzen Welt über drei Millionen Menschenleben gefordert, das Leben von mindestens 800 Millionen Menschen beeinträchtigt und zu unmittelbaren Schäden in Höhe von 230 Milliarden US$ geführt.
Der steigende Bedarf an Katastrophenhilfe und Katastrophennachsorge kann nur durch eine Abwehrstrategie bewältigt werden, die Konzepte und Technologien zur Katastrophenvorbeugung in den Mittelpunkt stellt. Gemäß der IDNDR-Initiative „Mehr Katastrophenvorbeugung zur Reduzierung der notwendigen Katastrophennachsorge“ sind viele Länder aufgerufen, allein oder im Rahmen von Absprachen, neben der Ausarbeitung von Plänen zur Katastrophenvorbeugung und zum Katastrophenschutz auch die Entwicklung und Einrichtung globaler, regionaler und lokaler nationaler Frühwarnsysteme vorantreiben. Vor dem Hintergrund der zunehmenden Globalisierung von Forschung und Wirtschaft bekommt die enge Verbindung von Wissenschaft und Informationstechnologie eine besondere Bedeutung. Die Themenstellungen und Organisation wissenschaftlicher Projekte werden zunehmend komplexer, tragen immer deutlicher einen globalen, ganzheitlichen Charakter und basieren auf der Integration und Auswertung unterschiedlicher Daten. Die heute verfügbaren Informations- und Kommunikationstechnologien bilden die technischen Grundlagen für verteiltes Arbeiten über Organisationsgrenzen hinweg, für den Zugriff auf entfernte Informationsbestände oder für die Kommunikation über große Distanzen und schaffen wichtige Voraussetzungen, um eine Spitzenstellung im internationalen Wettbewerb zu erreichen. Deshalb ist die Weiterentwicklung und Optimierung dieser Technologien integraler Bestandteil jedes Projekts im Konzept GEOTECHNOLOGIEN. Insbesondere geht es darum, den Informationsfluss sowie die Integration, Dokumentation und Verfügbarkeit von Daten im Rahmen des Gesamtkonzepts sicherzustellen.
Konzertierte Aktion für Spitzenleistung
Deutschland gehört heute zum Kreis der führenden Nationen auf dem Gebiet der geowissenschaftlichen Forschung und deren technologischer Umsetzung. Dies ist nicht zuletzt einer soliden Ausbildung, einem ausgezeichneten infrastrukturellen Rahmen und einer guten Forschungsförderung zu verdanken. Erhalt und Ausbau dieser Rahmenparameter sind für eine konkurrenzfähige Stellung – insbesondere im internationalen Umfeld – unbedingt notwendig. Dies gilt für die personelle und sachliche Grundausstattung der einzelnen Hochschul- und Forschungsinstitute ebenso wie für eine angemessene Projektförderung von nationalen und internationalen Programmen. Um den gesellschafts- wie arbeitsmarktpolitischen Anforderungen an die Geowissenschaften gerecht werden zu können, bedarf es jedoch eines konzertierten Vorgehens, an dem auch die Wissenschaft beteiligt sein sollte. Sie ist dabei in erster Linie gefordert, neue Perspektiven zu entwickeln, wie sie ihren Beitrag in Bezug auf Management und nachhaltige Entwicklung des Lebensraums Erde wahrnehmen will. Neben der
Definition wissenschaftlicher Leitlinien gehören dazu, wie in weiten Bereichen bereits begonnen, konkrete Vorschläge zur Reform der Studiengänge, um diese unter Bewahrung der notwendigen Flexibilität den geänderten Anforderungen des Arbeitsmarktes anzupassen. Des Weiteren ist es notwendig, dem ohne Frage berechtigten Anliegen nach stärkerer Transferleistung zwischen Grundlagenforschung und anwendungsorientiertem Nutzen zu entsprechen. Schon heute lässt sich in vielen spezifischen Forschungsprojekten der Geowissenschaften Grundlagenforschung nicht mehr von angewandter Forschung abgrenzen. So findet – nach wie vor zwar grundlagenorientiert – geowissenschaftliche Forschung heute immer stärker ihren Niederschlag in der Entwicklung neuer Technologien, Methoden und marktfähiger Produkte. Herausgegriffen seien nur die im Rahmen von KTB entwickelten und inzwischen weltweit eingesetzten Verfahren der Richtbohrtechnologie, die auf der marinen Geoforschung basierenden Technologien zur Untersuchung und Langzeitüberwachung des Meeresbodens in der Tiefsee oder die konsequente Umsetzung von Grundlagenwissen in die Praxis der Denkmalpflege und die Bereitstellung von geotechnischen Sicherheitskonzepten für die Nutzung des Untergrundes als Wirtschaftsstandort. Der Erschließung aufsehenerregender Hochtechnologiefelder, wie zum Beispiel der Raumfahrt, tragen geowissenschaftliche Satellitenprojekte, wie die vom GFZ Potsdam federführend durchgeführten Satellitenmissionen CHAMP (CHAllenging Mini-Satellite Payload for Geophysical Research and Application) und GRACE (Gravity Recovery and Climate Experiment) Rechnung. Geowissenschaftliche FuE-Aktivitäten werden sich auch zukünftig am nationalen Bedarf orientieren müssen. Gleichermaßen bedeutend aber sind die am internationalen Markt ausgerichteten FuE-Aktivitäten, die in erster Linie der Sicherung und dem Transfer bestehenden Know-hows dienen.
FuE Programm GEOTECHNOLOGIEN – Stand der Umsetzung
Seit dem Start des FuE-Programms GEOTECHNOLOGIEN im Jahre 2000 wurden sieben der dreizehn thematischen Schwerpunkte in konkrete Forschungsprojekte umgesetzt. Sie werden entweder im Rahmen der BMBF-Projektförderung oder als DFG-Schwerpunktprogramme bearbeitet und sind auf Arbeitsebene vielfach miteinander vernetzt. Die Beobachtung des Systems Erde aus dem Weltraum Zu dem Themenschwerpunkt „Die Beobachtung des Systems Erde aus dem Weltraum“ fördern das Bundesministerium für Bildung und Forschung (BMBF) und die Deutsche Forschungsgemeinschaft (DFG) zur Zeit
IX
X
elf Forschungsverbünde mit einem Finanzvolumen von knapp 10 Millionen Euro in einer ersten Förderphase (2001–2004). Der Schwerpunkt der Fördermaßnahmen fokussiert sich auf die internationalen Satellitenmissionen GRACE (Gravity Recovery And Climate Experiment), CHAMP (CHAllenging Minisatellite Payload) und GOCE (Gravity field and steadystate Ocean Circulation Explorer) sowie die wissenschaftliche Auswertung und praktische Nutzung dieser Missionsdaten. Mit der vom GeoForschungsZentrum Potsdam geleiteten Satellitenmission CHAMP, dessen deutsch-amerikanischem „Schwesterprojekt“ GRACE und der von der Europäischen Raumfahrt Agentur ESA für 2006 geplanten Schwerefeldmission GOCE wird ein neues Kapitel in der Erforschung des Planeten Erde aufgeschlagen. Ziel der Missionen ist die hochgenaue Vermessung des Schwere- und Magnetfeldes der Erde. So ist es mit einer neuartigen Technik an Bord der Satelliten möglich, deren Bahnbestimmung und damit die Schwerefeldberechnung um mehrere Größenordnungen gegenüber herkömmlichen Verfahren zu verbessern. Ein Quantensprung, da durch die exakte Vermessung der Schwerkraft sehr genaue Aussagen über Meeresspiegeländerungen und Tiefenwasserströme in den Ozeanen möglich sind. Einen ebenso praktischen Beitrag liefert die hochgenaue Vermessung des Erdmagnetfeldes, das zur Zeit stark abnimmt. Das Erdmagnetfeld schützt die Erde wie ein unsichtbarer Schirm vor den elektromagnetischen Teilchen der Sonne, dem sogenannten Sonnenwind. Fällt dieser Schutz einmal aus, kann das Leben auf der Erde empfindlich gestört werden: Stromnetze brechen zusammen und Kommunikationssysteme und die Navigationsanlagen in Flugzeugen und Satelliten würden gestört. Im Rahmen der CHAMP-Mission wollen die Forscher daher vergleichsweise einfache Modelle entwickeln, mit denen die zeitlichen Variationen des Erdmagnetfeldes verständlich zu beschreiben sind. Eine verlässliche Vorhersage des Weltraumwetters rückt damit in greifbare Nähe. CHAMP und GRACE vermessen zudem die vertikale Verteilung des Wasserdampfs und der Temperatur in der Atmosphäre. Diese Daten sind sowohl für die Wettervorhersage als auch für die Klimaforschung von großer Bedeutung. Integraler Bestandteil der Förderung ist die Entwicklung neuer Technologien, in der Regel durch die Zusammenarbeit mit kleinen und mittelgroßen Unternehmen. So koordiniert die Bayerische Akademie der Wissenschaften einen Forschungsverbund aus Universitäten und Technologieunternehmen, die ein Verfahren entwickeln, mit dem die Messung des Erdschwerefeldes aus niedrigfliegenden Flugzeugen möglich wird: Eine für viele praktische Anwendungen wichtige Technologie, da nur so die erforderliche räumliche Auflösung von etwa 1 km erreicht werden kann. Den Aufbau eines weltweit gültigen Bezugsystems zur Integration geodätischer Raumverfahren hat ein von der Technischen Universität München koordinierter Verbund aus Universitäten und außeruniversitären Forschungseinrichtungen im Rahmen des Internationalen Erdrotationsdienstes (IERS) übernom-
men. Mit dem Aufbau eines solchen Nutzerzentrums übernimmt Deutschland in diesem Forschungsfeld eine führende internationale Rolle. An den geförderten Forschungsprojekten sind Universitäten, außeruniversitäre Einrichtungen und aufgrund der erheblichen Anwendungsrelevanz diverse Wirtschaftsunternehmen aus Deutschland beteiligt. Bei der Datenauswertung wird ein bislang selten erreichtes Maß an interdisziplinärer Zusammenarbeit erreicht. Fast alle Vorhaben sind zudem in internationale Gemeinschaftsprojekte eingebunden. Das Erdinnere als treibende Kraft geologischer Prozesse Zu diesem Themenkomplex richtete die Deutsche Forschungsgemeinschaft (DFG) im Frühjahr 2000 das Schwerpunktprogramm „Erdmagnetische Variationen: Raum-Zeitliche Struktur, Prozesse und Wirkungen auf das System Erde“ ein. Die Feldstärke des Erdmagnetfeldes ist augenblicklich in schneller Abnahme begriffen. So ist der Anteil des Dipolmomentes in den letzten 300 Jahren um rund 3% zurückgegangen, im Nordatlantik beträgt die gegenwärtige Abnahme sogar 100 nT/Jahr, also 25 % pro Jahrhundert. Dieser rapide Rückgang der Feldintensität kann als Hinweis auf eine kurz bevorstehende Umpolung des Erdmagnetfeldes gedeutet werden. Dies wäre für das Leben auf der Erde jedoch mit erheblichen Konsequenzen verbunden, da das Magnetfeld die Erdoberfläche gegen den Einfall der hochenergetischen kosmischen Strahlung abschirmt. Seit Einrichtung des Schwerpunktprogramms „Erdmagnetische Variationen“ konnten wesentliche Beiträge zu einem verbesserten Verständnis des Erdmagnetfeldes geleistet werden. Die CHAMP-Mission mit ihren räumlich und zeitlich sehr hochaufgelösten Magnetfeldmessungen erlaubt neuartige, sehr detaillierte Analysen des Hauptfeldes und seiner säkularen Variationen. Die paläomagnetischen Analysen werden mit großem Aufwand durchgeführt und führen zu immer präziseren Aussagen über das Paläofeld wie etwa das Verhalten des lokalen Feldvektors während kurzer geomagnetischer Exkursionen. Die Einflüsse der Diagenese in Sedimenten auf die Remanenzträger und damit des paläomagnetischen Signals als Abbild der geomagnetischen Variationen werden immer detaillierter und besser verstanden. Übergreifende Analysen wie das Zusammenführen von weltweiten Säkularvariationsdaten auf der Basis von Observatoriums- und Satellitenmessungen als auch Paläomagnetikdaten erlauben deutlich verbesserte Anpassungen von Modellen an die gemessenen Säkularvariationen. Die Geodynamomodellierer machen spektakuläre Fortschritte in ihrem Verständnis der für den Dynamoprozess wesentlichen physikalischen Prozesse und stehen in engem Kontakt mit den Magnetikern, um ihre Modelle anhand von rezenten und Paläodaten zu erproben. Auch hinsichtlich der Wirkungen erdmagnetischer Variationen auf das Magnetosphären-lonosphären-Atmosphärensystem sind wichtige
Fortschritte zu verzeichnen. So ist mit großer Wahrscheinlichkeit davon auszugehen, dass während eines Polaritätswechsels eine deutliche Abnahme des Ozons in der polaren Atmosphäre auftritt, die durch vermehrten Eintritt hochenergetischer Protonen bewirkt wird. Übergeordnetes Ziel des Schwerpunktprogramms ist die Erstellung von Geodynamomodellen, die wesentliche Eigenschaften des Erdmagnetfeldes beschreiben, um eventuell auch Voraussagen entwickeln zu können. Kontinentränder: Brennpunkte im Nutzungs- und Gefährdungspotenzial der Erde Die Ränder der Kontinente zählen heute zu den wichtigsten Lebens- und Wirtschaftsräumen der Erde. Mehr als 80 % der Weltbevölkerung lebt inzwischen in einem circa 200 km breiten Streifen entlang der Küsten. Die Bedeutung der Kontinentränder wird nach allen demographischen und ökonomischen Studien zukünftig sogar noch zunehmen. Gleichzeitig konzentrieren sich über 90 % der globalen Erdbebentätigkeit sowie fast alle hochexplosiven Vulkane auf diese Lebensräume. Kontinentränder sind daher weltweit in den Blickpunkt der Forschung gerückt. Der BMBF fördert unter dem Themenschwerpunkt Kontinentränder: Brennpunkte im Nutzungs- und „ Gefährdungspotenzial der Erde“ ab dem 1. Januar 2004 drei interdisziplinär angelegte Forschungsverbünde mit einem Gesamtvolumen von knapp 6 Millionen Euro für eine erste dreijährige Förderphase. Vor den Küsten Chiles und Indonesiens werden Wissenschaftler von Universitäten und außeruniversitären Forschungseinrichtungen gemeinsam mit ihren Partnern vor Ort die „bewegte“ Geschichte von kollidierenden Krustenplatten erforschen. Die Wissenschaftler erwarten, dass sie mit ihren Ergebnissen entscheidend zur Erforschung von Erdbeben und Vulkanausbrüchen und damit zur Entwicklung neuer Frühwarnsysteme beitragen können. Von großer ökologischer wie ökonomischer Bedeutung ist ein Vorhaben vor der Küste Namibias, das die periodisch auftretenden Ausbrüche toxischer Gase (Methan und Schwefelwasserstoff) in einem der fischreichsten Meeresökosysteme der Erde untersucht. Die deutschen Wissenschaftler und ihre Partner aus Südafrika und Namibia wollen daher zunächst die Herkunft und Verbreitung der Gase klären und die Auswirkungen der Eruptionen auf die umgebende Lebewelt untersuchen. Die Deutsche Forschungsgemeinschaft (DFG) trägt der europäischen Komponente der internationalen Kontinentrandforschung Rechnung. Im Rahmen der Forschungsinitiative EUROMARGINS der European Science Foundation (ESF) fördert die DFG unter dem Dach von GEOTECHNOLOGIEN zur Zeit 11 Forschungsprojekte mit einem Finanzvolumen von 2,1 Millionen Euro für eine ebenfalls dreijährige Förderphase. Die Vorhaben sind Teil europäischer Gemeinschaftsprojekte.
Sedimentbecken: Menschheit
Die
größte
Ressource
der
Zu diesem Forschungsschwerpunkt richtete die DFG im Frühjahr 2002 ein Schwerpunktprogramm ein. Unter dem Titel „Dynamik sedimentärer Systeme unter wechselnden Spannungsregimen am Beispiel des zentraleuropäischen Beckensystems“ werden derzeit 29 Einzel- und Verbundvorhaben gefördert. Das zentrale Thema dieses Schwerpunktprogramms ist die Quantifizierung der Prozesse, die für die Bildung und Ausgestaltung von Sedimentbecken verantwortlich sind. Zu diesen Prozessen gehören: • die durch das globale Spannungsfeld bedingte Dehnung oder Verkürzung der Erdkruste, sowie die damit verbundene Entwicklung von Störungssystemen • Kompaktion, Salzbewegung und Fluidbildung, sowie die spätere Überprägung durch externe Steuerungsfaktoren • die Transportprozesse, über die Gase und Flüssigkeiten durch den Porenraum der Gesteine migrieren, ihre Abhängigkeit von Kompaktion, Störungssystemen und geothermischem Feld, sowie die dabei auftretenden Wechselwirkungen mit dem Festgestein • die Sedimentanlieferung und -verteilung als Spiegel tektonischer Prozesse und klimatischer Veränderungen. Das gewonnene Verständnis soll später auf andere, weniger gut erforschte Sedimentbecken übertragen werden. Die Arbeiten werden in enger Kooperation mit Wissenschaftlern aus Großbritannien, Dänemark und Polen durchgeführt.
Gashydrate im Geosystem Gashydrate sind heute weltweit ins Blickfeld der Forschung gerückt. In einigen Ländern, wie zum Beispiel in Japan, ist man sogar entschlossen, diese Energiequelle zukünftig kommerziell zu nutzen. Auch in Deutschland wird der Gashydratforschung eine hohe Priorität beigemessen. Im Forschungsprogramm GEOTECHNOLOGIEN nimmt sie daher eine herausgehobene Stellung ein. Knapp 15 Millionen Euro standen Wissenschaftlerinnen und Wissenschaftlern in 14 Verbundprojekten in einer ersten Förderphase (2000-2003) zur Verfügung. Das Hauptaugenmerk der Forschungsvorhaben richtet sich jedoch nicht auf das mögliche Energiepotenzial der Gashydrate, sondern auf ihre Rolle im Kohlenstoffkreislauf, ihre mögliche Klimawirksamkeit und das Risikopotenzial. Die FuE-Arbeiten im Rahmen des Schwerpunktes „Gashydrate im Geosystem“ konzentrieren sich daher auf fünf Themenbereiche: • Erkennung und Quantifizierung von Gashydraten • Methanumsetzung im globalen Kohlenstoffkreislauf • Zeitliche Veränderung der globalen Methanbilanz: Klimawirksamkeit • Mechanische Instabilität des Untergrundes und Risikopotenzial durch Gashydrate • Technologieentwicklung
XI
XII
Die bislang durchgeführten Forschungsarbeiten können bereits auf eine Reihe international vielbeachteter Erfolge verweisen. Dies gilt insbesondere für die Entwicklung neuer Technologien auf den Gebieten des Anlagenbaus, der Sensorik und der Erkundungs-, Entnahme- und Untersuchungstechniken. Mit neuartigen Beprobungstechnologien und der Entwicklung von Druckund Experimentierkammern ist es somit erstmals möglich, Gashydrate unter den realen Druck- und Temperaturbedingungen ihres Herkunftsgebietes zu bergen und für weitere Experimente im Labor zu nutzen. Federführend in der Entwicklung dieser Technologien sind die Technische Universität Hamburg-Harburg und die Technische Universität Berlin. Neue Einblicke in bislang verschlossene Lebenswelten vermitteln Forschungsarbeiten in den sauerstofffreien Tiefen des Schwarzen Meeres. Wissenschaftlern der Universitäten Hamburg und Göttingen sowie des Bremer Max-Planck-Instituts für Marine Mikrobiologie gelang im Rahmen eines internationalen Verbundvorhabens der Nachweis von urzeitlichen Mikroorganismen, die Methan ohne Sauerstoff abbauen können und damit eine wichtige Rolle im Methankreislauf des Meeres übernehmen. Im internationalen Bohrprojekt MALLIK, an dem im Rahmen von GEOTECHNOLOGIEN Wissenschaftler des GFZ Potsdam teilnahmen, wurde in der kanadischen Arktis zur Jahreswende 2001/2002 erstmals ein Gashydratreservoir erfolgreich angezapft. Große Bedeutung kommt auch der Standsicherheitsprognose von Tiefseehängen und hier verankerten Offshore-Anlagen zu. Wissenschaftlern von der FU-Berlin und der Universität Kiel gelang es erstmals, Spannungsreaktionen im Sediment, die durch eine Volumenänderung von Gashydraten hervorgerufen wird, messtechnisch zu erfassen. Eine internationale Begutachtung zum Ende der ersten Förderphase (2001-2003) bescheinigte der Gashydratforschung im Rahmen des Sonderprogramms GEOTECHNOLOGIEN, eine weltweit führende Position eingenommen zu haben. Informationssysteme im Erdmanagement – Von Geodaten zu Geodiensten Geodaten sind ein wesentlicher Teil des in der modernen Informations- und Kommunikationsgesellschaft vorhandenen Wissens. Sie werden auf allen Ebenen des Öffentlichen Lebens genutzt und sind vielfach Grundlage des planerischen Handelns. Ihre Verfügbarkeit ist maßgebliche Voraussetzung für Standort- und Investitionsentscheidungen. Geodaten und Geoinformationen bilden damit ein Wirtschaftsgut ersten Ranges und können wesentlich zum ökonomischen Wachstum beitragen. Gegenwärtig ist ein effizienter Umgang mit Geoinformationen jedoch nur eingeschränkt oder mit erheblichem Kostenaufwand möglich. Wesentliche Ursache hierfür sind der Mangel an einheitlichen Datenstrukturen, Formaten und Spezifikationen sowie veraltete Informationstechniken, auf denen viele der heutigen Systeme basieren.
In einer ersten dreijährigen Förderphase werden seit 2002 sieben Verbundvorhaben im Rahmen des Themenschwerpunktes „Informationssysteme im Erdmanagement – Von Geodaten zu Geodiensten“ gefördert. Wissenschaftler aus Universitäten und außeruniversitären Forschungseinrichtungen arbeiten hier gemeinsam mit ihren Partnern aus der Industrie zu folgenden Themenstellungen: • Entwicklung von plattformunabhängigen offenen Softwaresystemen für die Datenhaltung, Analyse und Präsentation • Verbesserte Nutzbarkeit großer heterogener geowissenschaftlicher Datenbestände • Modellierung raum-zeitlicher Zusammenhänge • Entwicklung innovativer Visualisierungsmethoden für raumbezogene und dynamische geowissenschaftliche Daten in 2-D, 3-D und 4-D. In enger Absprache mit anderen Initiativen zu dieser Thematik leisten sie einen wichtigen Beitrag, um die wissenschaftlichen und technologischen Grundlagen für eine effizientere Nutzung großer heterogener Datenbestände zu schaffen und ihre langfristige Verfügbarkeit in Wissenschaft, Wirtschaft und Verwaltung sicherzustellen.
Globale Klimaänderungen – Ursachen und Auswirkungen Im Rahmen einer programmübergreifenden Initiative wird der Themenschwerpunkt „Globale Klimaänderungen – Ursache und Auswirkungen“ bearbeitet. Dies bot sich an, da quasi zeitgleich mit dem FuE-Programm GEOTECHNOLOGIEN das vom BMBF geförderte Deutsche Klimaforschungsprogramm (DEKLIM) ins Leben gerufen wurde. In DEKLIM arbeiten Wissenschaftler unterschiedlicher Disziplinen an Fragestellungen zur Klimaforschung in folgenden Bereichen: • Paläoklima • Regionale Prozessstudien im Ostseeraum • Klimavariabilität und Vorhersagbarkeit • Klimawirkungsforschung Zwölf Vorhaben richten sich in erster Linie auf die Rekonstruktion des Paläoklimas. Sie werden unter dem gemeinsamen Dach von DEKLIM und GEOTECHNOLOGIEN durchgeführt.
Tabelle: Themenschwerpunkte des Forschungs- und Entwicklungsprogramms GEOTECHNOLOGIEN und der Stand ihrer Umsetzung
Themenschwerpunkte
Status
Förderinstitution
Erfassung des Systems Erde aus dem Weltraum
Komplementäre Förderung von 11 Verbund- und Einzelvorhaben (2002-2004)
BMBF, DFG
Das Erdinnere als treibende Kraft geowissenschaftlicher Prozesse
Schwerpunktprogramm „Erdmagnetische Variationen: Raum-Zeitliche Struktur, Prozesse und Wirkungen auf das System Erde“ (Beginn: 2000)
DFG
Kontinentränder: Brennpunkte im Nutzungs- und Gefährdungspotenzial der Erde
Förderung von 14 Verbund- und Einzelvorhaben (2004-2006)
BMBF, DFG
Tomographie der Erdkruste – Von der Durchschallung zum Echtzeitmonitoring
Zur Zeit noch nicht in der Förderung
–
Sedimentbecken: Die größte Ressource der Menschheit
Schwerpunktprogramm „Dynamik Sedimentärer Becken “ (Beginn: 2002)
DFG
Gashydrate im Geosystem
Förderung von 14 Verbund- und Einzelvorhaben (2000-2003)
BMBF
Stoffkreisläufe: Bindeglied zwischen Geosphäre und Biosphäre
Zur Zeit noch nicht in der Förderung
–
Das gekoppelte System Erde – Leben
Zur Zeit noch nicht in der Förderung
–
Erkundung, Nutzung und Schutz des unterirdischen Raums
Zur Zeit noch nicht in der Förderung
–
Mineraloberflächen: Von atomaren Prozessen zur Geotechnik
Zur Zeit noch nicht in der Förderung
–
Frühwarnsysteme im Erdmanagement
Zur Zeit noch nicht in der Förderung
–
Informationssysteme im Erdmanagement
Förderung von sechs Verbundvorhaben (2002-2005)
BMBF
Globale Klimaänderungen – Ursachen und Auswirkungen
Förderung von 13 Einzel- und Verbundvorhaben zum Verständnis des Paläoklimas im Rahmen von DEKLIM (Beginn: 2001/2002)
BMBF
XIII
Erfassung des Systems Erde aus dem Weltraum
1
D
ie Ausmessungen der Erdfigur und ihre Veränderung, die Orientierung der Erde im Raum und die Beschreibung ihres Magnet- und Schwerefeldes sind die Schwerpunkte des Themas „Beobachtung des Systems Erde aus dem Weltraum“. Sie liefern wesentliche Beiträge zur Dynamik des Erdkörpers und zur Entschlüsselung der komplexen Wechselwirkung zwischen den verschiedenen Einheiten des Systems Erde. Raumgestützte Beobachtungsverfahren nehmen aufgrund einer atemberaubenden Entwicklung in den letzten Jahren heute eine Sonderstellung in der geowissenschaftlichen Forschung ein. Nur sie sind in der Lage, in kurzer Zeitabfolge globale Messreihen zu liefern, die konsistent und homogen sind. Dadurch konnte das Spektrum der erfassbaren Erdparameter deutlich erweitert, die Messgenauigkeit erhöht und der Faktor Zeit erschlossen werden. So lassen sich heute beispielsweise die Bewegungsraten kontinentaler Platten direkt messen. Dicht verteilte GPS-Empfänger in Erdbebengebieten können kleinste Erdkrustenverschiebungen nachweisen. Mit anderen Anwendungen wiederum werden minimale Verformungen, zum Beispiel vor dem Ausbruch eines Vulkans detektierbar. Mit den Ergebnissen der Satellitenmissionen CHAMP, GRACE und GOCE lässt sich das Schwerefeld der Erde mit großer Detailgenauigkeit erfassen. Damit werden das Zirkulationsverhalten der Ozeane, Massenanomalien, Massentransport und Massenaustauschprozesse im Erdsystem erstmals sichtbar gemacht. Deutsche Wissenschaftler sind, unter anderem durch das FuE-Programm GEOTECHNOLOGIEN, federführend an diesen internationalen Missionen beteiligt. Deutschland konnte damit in gleich mehreren Schlüsselfeldern dieses innovativen Forschungsgebietes eine weltweit anerkannte Führungsposition übernehmen.
In den kommenden Jahren gilt es, die bestehenden und zukünftige Messverfahren nicht nur weiterzuentwickeln, sondern die bisher meist separat eingesetzten Technologien zu einem Integrierten Geodätisch-Geodynamischen Monitoringsystem (IGGM) zu verschmelzen. Im Sinne eines Systemansatzes ist dies der notwendige Schritt zu einer Prozesserfassung und einem Prozessverständnis des Systems Erde.
Themenschwerpunkt: „Erfassung des Systems Erde aus dem Weltraum“ Förderstatus BMBF: Sechs Verbundprojekte mit einem Fördervolumen von 8,1 Millionen Euro für eine 3-jährige Projektphase (2002-2004).
2
Förderstatus DFG: Komplementäre Förderung von fünf Einzelvorhaben im Rahmen des DFG-Normalverfahrens. Fördervolumen: 1,7 Millionen Euro für eine dreijährige Projektphase. Ziel: Beteiligung an den internationalen Satellitenmissionen CHAMP, GRACE, GOCE und eine fächerübergreifende Auswertung der wissenschaftlichen Daten. Beteiligte Institutionen: Interdisziplinäre Beteiligung von Universitäten, außeruniversitären Forschungseinrichtungen und Wirtschaftsunternehmen.
Integriertes Geodätisch-Geodynamisches Monitoringsystem
M
it der Verknüpfung in Raum und Zeit der Komponenten Geokinematik, Erdrotation und Schwerefeld zu einem globalen Erfassungssystem lässt sich eine wesentliche Lücke bei der Erforschung der Dynamik des Erdsystems schließen, nämlich die der Quantifizierung von Massenaustausch- und Massentransportprozessen im Erdsystem und von Massenungleichgewichten. Das heißt, es lassen sich Abschmelzungsvorgänge in den Eiszonen unseres Planeten, isostatische Ausgleichsbewegungen der darunter liegenden Erdkruste, thermische Expansion des Ozeanwasservolumens, klimatisch bedingte Verlagerungen von Atmosphärenmassen, Veränderungen der Ozeandynamik, hydrologische Kreisläufe und Krustenbewegungen beziehungsweise -deformationen quantifizieren und in ihrer Wechselbeziehung erforschen. Nur mit dem Einsatz moderner Satellitenverfahren, das heißt mit den Missionen CHAMP, GRACE, GOCE, CRYOSAT, ENVISAT, TerraSAR-X – alle mit wesentlicher deutscher Förderung – ist eine globale Erfassung dieser Prozesse in Raum und Zeit machbar. Zusätzlich setzt ein derartiges Verfahren für die Erfassung von Deformationsprozessen und Erdrotation eine extrem genaue Vernetzung aller geodätischer Observatorien zu einem integralen, erdumspannenden „Großobservatorium“ voraus.
Mit einem Symposium im Oktober 1998 in München wurde der internationale Dialog zum Aufbau eines derartigen Erfassungssystems angestoßen. Die Internationale Assoziation für Geodäsie (IAG) richtete in der Folge eine Arbeitsgruppe ein, die derzeit an einem Realisierungskonzept arbeitet. Auf der Generalversammlung der International Union of Geodesy and Geophysics (IUGG) im Jahr 2003 in Sapporo soll dieses „Integrated Global Geodetic Observing System“ (IGGOS) als Pilotprojekt gestartet und mittelfristig in die „Integrated Global Observing Strategy“ (IGOS) von ICSU und UNESCO eingebracht werden. In den kommenden Jahren müssen die wissenschaftlichen, technischen und organisatorischen Voraussetzungen für den Aufbau des Erfassungssystems geschaffen werden. International Earth Rotation Service (IERS) Das Integrierte Geodätisch-Geodynamische Monitoringsystem setzt sich das Ziel Geokinematik, Erdrotation und Schwerefeld in einem globalen Bezugssystem mit einer Relativgenauigkeit von 1 Milliardstel (10 -9) und gleichmäßig über Jahrzehnte zu vereinigen. Unter Geokinematik ist dabei die millimetergenaue Erfassung aller Veränderungen der Oberflächengeometrie (Land, Eisflächen und Meeresoberflächen) zu verstehen, unter Erdrotation die kleinen Schwankungen der Drehrate der Erde (Tageslängenschwankungen) und der Orientierung des Erdkörpers bezüglich des Fixsternhimmels, das Erdschwerefeld wird ausgedrückt durch die Form des Geoids und der Schwereanomalien. Grundvoraussetzung für das Erreichen der angestrebten Genauigkeit, Konsistenz und Stabilität ist eine vollkommen uniforme Verarbeitung und Kombination aller Beobachtungsdaten und eine einheitliche Modellierung aller Einflussfaktoren (Atmosphäre, Ozeane, Gezeiten, Tektonik, relativistische Effekte, Stationseinflüsse et cetera). Diese Aufgabe hat sich der IERS für die kommenden Jahre gestellt. Über das FuE-Programm GEOTECHNOLOGIEN wurde eine Bündelung der deutschen Kräfte (FESG, DGFI, Uni Bonn, GFZ, BKG) erreicht und die internationale Stellung des deutschen Beitrags wesentlich verstärkt. Die Koordination der Auswertungen der internationalen technikspezifischen Dienste wird durch die FESG durchgeführt. Größte Herausforderung ist dabei die Kombination und uniforme Auswertung aller geodätischen Raumverfahren sowie der Einsatz von einheitlichen Modellierungsverfahren und Auswertealgorithmen (siehe Abb. 1). Erste Schritte auf diesem Weg sind bereits vollzogen.
CHAMP Ein herausragendes Ereignis war der erfolgreiche Start des unter Federführung des GeoForschungsZentrum Potsdam entwickelten deutschen Geoforschungssatelliten CHAMP (CHAllenging Minisatellite Payload) im Juli 2000 (siehe Abb. 2). Mit CHAMP ist erstmals die kontinuierliche Bahnverfolgung eines in sehr niedriger,
nahezu polarer Umlaufbahn die Erde umkreisenden Geopotenzialsatelliten mit Hilfe der hochfliegenden GPSSatelliten Realität geworden. Aus den so laufend beobachtbaren Bahnstörungen konnten wiederum erstmals mit Hilfe eines Präzisionsbeschleunigungsmessers an Bord die nichtgravitativen Störungsanteile abgetrennt werden. Schon aus wenigen Wochen CHAMP-Daten wurde so ein Schwerefeldmodell entwickelt, das hin-
Abb. 1: Grundlage eines globalen geodätisch-geodynamischen Monitoringsystems ist die millimetergenaue Verknüpfung von GPS, des französischen DORIS-Systems, von Laserentfernungsmessung zu Satelliten und zum Mond und der Langbasisinterferometrie (VLBI). Sie wird in diesem Bild symbolisiert durch das VLBITeleskop, die Kuppel der Laserentfernungsmessanlage und die beiden GPS-Antennen (Fundamentalstation Wettzell). sichtlich Genauigkeit alle bisherigen Satellitenmodelle um eine Größenordnung übertroffen hat. Da sich solche genauen Schwerefeldmodelle bereits aus kurzen CHAMP-Beobachtungszeiträumen ergeben, gerät die Aufdeckung umweltrelevanter zeitlicher Schwerefeldänderungen in den Bereich des Möglichen. Mit sehr genauen Skalar- und Vektormagnetometern ausgestattet, ist CHAMP die erste geowissenschaftliche Mission, mit der gleichzeitig beide Geopotenziale – das Schwerefeld und das Magnetfeld der Erde – systematisch ausgemessen werden können. Aus den Magnetfeldsondierungen entstehen detaillierte globale Bilder der Krustenmagnetisierung und der Änderungen des Magnethauptfeldes (Intensität, Pole). Selbst kleinste, von den Meeresgezeiten angeregte Magnetfeldänderungen sind mit CHAMP erfassbar. Dem für die Bahn- und Schwerefeldbestimmung benutzten GPS-Empfänger an Bord von CHAMP ist zusätzlich eine weitere Beobachtungsfunktion zugewiesen worden. Er sondiert die Atmosphäre und liefert über die Brechung der GPS-Radiosignale Vertikalprofile der Temperatur- und Wasserdampfverteilung in der Stratosphäre und Troposphäre, und damit wichtige Eingangsgrößen für die Wettervorhersage und Klimaforschung. Im Rahmen des FuE-Programms GEOTECHNOLO-
GIEN wurde das gesamte für die CHAMP Mission am GFZ Potsdam entwickelte Wissenschaftsdatensystem SDS (Science Data System) mit Realdaten endgültig ausgetestet und seit Herbst 2001 operationell für die routinemäßige Vorverarbeitung von Bahn-, Schwerefeldund Magnetfeldmessungen und die systematische Berechnung von höherwertigen Datenprodukten genutzt. Diese Daten und Produkte werden über das CHAMP Daten- und Informationssystem (ISDC) laufend ohne große Verzögerung allen interessierten Nutzern zur Verfügung gestellt. Außerdem wird in begleitenden Pilotstudien an neuartigen Auswertealgorithmen zur Bahn- und Gravitationsfeldmodellierung und der Aufdeckung ionosphärischer geophysikalischer Signaturen aus CHAMP-Beobachtungen gearbeitet. Bis zum Frühjahr 2003 wurden insgesamt mehr als 2 Millionen Daten- und Produktfiles der CHAMP Mission im Verarbeitungszentrum des GFZ Potsdam erzeugt und
Abb. 2: Der GeoForschungssatellit CHAMP.
im CHAMP ISDC abgelegt. Diese Information wird sehr intensiv von jetzt über 200 Wissenschaftlergruppen weltweit genutzt, sowohl für wissenschaftliche Untersuchungen als auch praktische Anwendungen. Im Januar 2002 fand am GFZ Potsdam das international sehr gut besuchte „First CHAMP Science Meeting“ statt, auf dem intensiv die ersten CHAMP Ergebnisse vorgestellt und diskutiert wurden. Diese Ergebnisse sind in einem 600-seitigen, kürzlich erschienenen Buch im SpringerVerlag dokumentiert. Das zweite CHAMP Science Meeting wird im September 2003 stattfinden.
GRACE Ein Quantensprung in der Schwerefeldbestimmung kann von der im März 2002 erfolgreich gestarteten amerikanisch-deutschen Zwillingsmission GRACE (Gravity Recovery And Climate Experiment) erwartet werden (siehe Abb. 3). Primäres Missionsziel dieser aus zwei Satelliten bestehenden Konfiguration, die im Abstand von 200 km in etwa 500 km Flughöhe die Erde umkreist, ist die gegenüber CHAMP nochmals um den Faktor 100 gesteigerte Genauigkeit in der Bestimmung des stati-
3
4
schen Schwerefeldes, insbesondere aber auch die Erfassung zeitlicher Feldänderungen. Diese zeitlichen Variationen im Schwerefeld hängen zusammen mit der Umverteilung von Massen im Erdinnern, im Ozean, in den Landeisgebieten und in der Atmosphäre. Wesentliche Elemente dieser Tandemmission sind wiederum die Bahnverfolgung beider Satelliten mit GPS und Präzisionsbeschleunigungsmessern und ein fast CHAMP-identisches Buskonzept. Herausragende Ergänzung ist das Messsystem HAIRS, das die Präzisionsdistanzmessung zwischen den beiden Satelliten realisiert. Es erlaubt, µm Entfernungsänderungen und damit kleinste auf die Satelliten wirkende, gravitativ bedingte Beschleunigungen zu erfassen. Als sekundäres Missionsziel werden auch bei GRACE die GPS Empfänger für die Atmosphären- und Ionosphärensondierung eingesetzt. Die GRACE Mission ist in mehrfacher Hinsicht eine große technologische Herausforderung und hat eine über 12 Monate andauernde Erprobungsphase notwendig gemacht. Erste, in dieser Phase vom Center of Space Re-
Abb. 3: Die GRACE Satelliten vor dem Start.
search, Austin und dem GFZ Potsdam, durchgeführte Schwerefeldanalysen sind sehr vielversprechend und deuten an, dass das primäre Missionsziel erreichbar sein wird. Mit Hilfe des FuE-Programms GEOTECHNOLOGIEN wurde es ermöglicht, neben dem amerikanischen ein eigenständiges deutsches Team für die Auswertung der sehr komplexen GRACE-Daten aufzubauen. Die Arbeiten dieses am GFZ Potsdam und den Universitäten Bonn, München und Stuttgart angesiedelten Teams umfassen alle Schritte von der integrierten Sensoranalyse, der Daten- und Produktverwaltung über die globale und regionale Schwerefeldanalyse bis hin zur Bestimmung und Analyse des zeitvariablen Schwerefeldes. Diese in der gerade auslaufenden GRACE-Erprobungsphase endgültig aufgebauten und geprüften Verarbeitungselemente werden die Basis für eine effiziente Bereitstellung von GRACE-Daten und Datenprodukten an die deutschen und europäischen GRACE-Nutzer über das GRACE-Datenund Informationssystem am GFZ Potsdam bilden.
CHAMP/GRACE Daten- und Informationssystem Für das Management von CHAMP- und GRACEMissionsdaten und Datenprodukten werden am GFZ Potsdam mit Unterstützung aus dem FuE-Programm GEOTECHNOLOGIEN online-ISDC (Information System and Data Centres) betrieben. Diese missionsspezifischen ISDCs werden in der nächsten Zukunft in eine übergreifende IT Struktur GESIS (German Earth Science Information System) integriert. Die ISDCs sind die Zentralstelle für den Datenfluss zwischen den CHAMP/ GRACE Prozessierungsgruppen und das Interface für die wissenschaftlichen Nutzer zu allen Missionsdaten und Datenprodukten. Die ISDCs sind eingebettet in die Bodeninfrastruktur der entsprechenden Mission, für CHAMP und GRACE in die entsprechenden Science Data Systems. Ein ISDC besteht aus den Hauptkomponenten Operational System, Clearinghouse und Data Warehouse. Seine Aufgaben sind die Archivierung und Langzeitspeicherung von Datenprodukten verschiedener Bearbeitungsstufen, der Betrieb eines Katalogsystems für das Produkt Retrieval und Download und die kontinuierliche Überwachung und Beschreibung des Produkt-Input/Output Zustands. Im CHAMP-ISDC (siehe Abb. 4) sind bis März 2003 2,85 Terabyte Daten angefallen und werden 2,34 Millionen Produkte verwaltet. Der CHAMP-Projekt spezifische Anteil an der Datennutzung durch das GFZ lag in 2002 bei knapp 40 %. Die externe (nicht-GFZ) Nutzung der CHAMP Daten lag im gleichen Jahre schwerpunktmäßig in Deutschland, USA, Japan, VR China, Taiwan, Dänemark und den Niederlanden (siehe Abb. 5). In Deutschland nutzten in diesem Zeitraum überwiegend die meteorologischen Universitätsinstitute und die über das FuEProgramm GEOTECHNOLOGIEN geförderten Hochschulinstitute und Forschungseinrichtungen diese Daten.
Abb. 4: Das CHAMP Bodensegment mit dem eingebundenen Information System and Data Center (ISDC).
GOCE GOCE ist die erste Kernmission des neudefinierten erdwissenschaftlichen Raumfahrtprogramms der ESA. Diese Mission befindet sich im Jahr 2003 in der Bauphase (Phase C/D); ihr Start ist für das Jahr 2006 vorgesehen. GOCE ist eine reine Gravitationsfeldmission, im Gegensatz zu GRACE ist sie jedoch primär auf die sehr genaue und detaillierte Bestimmung des stationären Anteils des Gravitationsfelds ausgerichtet. Das Hauptinstrument ist ein Gravitationsgradiometer, ergänzt durch GPS-Tracking und aktive Lagekontrolle und Kompensa-
Abb. 5: Prozentuale Verteilung der CHAMP Datennutzung in 2002.
tion von Oberflächenkräften (siehe Abb. 6). Das Gravitationsfeldmodell aus GOCE wird einen wesentlich detaillierteren Einblick in die Struktur der ozeanischen und kontinentalen Lithosphäre und des oberen Erdmantels (Sedimentbecken, Plumes, Riftzonen, Gebirgsbildungsprozesse et cetera) eröffnen als dies heute möglich ist. Das hochauflösende Geoidmodell gibt in Kombination mit Satellitenaltimetrie ein sehr detailreiches Bild der Oberflächenzirkulation der Weltmeere und damit implizit auch der Massentransporte in den oberen Ozeanschichten. Für Anwendungen in den Bereichen Kataster, Kartographie, Geoinformations- und Bauingenieurwesen entsteht ein weltweit homogenes und konsistentes Höhensystem. Geoid-, Schwere- und Höhenmodell sind zudem von direktem Nutzen für die Erforschung von Meeresspiegelschwankungen. Voraussetzung für die wissenschaftliche Nutzung in Geophysik, Ozeanographie, Geodäsie und Meeresspiegelforschung ist die Rekonstruktion eines Schwerefeldmodells aus einem System von sehr komplexen Messsensoren. Für diesen Schritt hat sich ein Auswertekonsortium von zehn europäischen Institutionen gebildet. Mit Unterstützung des FuEProgramms GEOTECHNOLOGIEN entstand in Deutschland durch eine Kooperation mehrerer Institutio-
5
6
nen eine gemeinsame Auswertestrategie, die sich momentan im Aufbau befindet und die in wesentlichen Teilen in das europäische Auswertekonzept integriert werden soll. Mit den Arbeiten zu CHAMP, GRACE und GOCE, mit der intensiven deutschen Beteiligung an CRYOSAT, TerraSAR-X und ENVISAT und mit den Arbeiten zum IERS werden wesentliche Voraussetzungen für den Aufbau eines globalen Erfassungssystems ermöglicht. Gleichzeitig ist es jedoch wichtig, Vorbereitungen für die wissenschaftliche Nutzung der Daten von CHAMP, GRACE, GOCE und TerraSAR in der Geophysik, Ozeanographie, Geodäsie, Glaziologie, Hydrologie und Meeresspiegelforschung zu treffen. Mit einigen DFG-Vorhaben wurde auch dieser Aspekt in Angriff genommen. Außerdem müssen ergänzende und neuartige terrestrische Sensoren und Flugmesssysteme entwickelt werden.
Fluggravimetrie In den Regionen der Welt, in denen für spezielle geophysikalische und ozeanographische Fragestellungen die Genauigkeit und räumliche Auflösung der Satellitenverfahren nicht mehr ausreichen, soll mit Hilfe der Fluggravimetrie eine lokale Verfeinerung geschaffen werden. Für die Messung werden sehr empfindliche Akzelerometer eingesetzt. Die große Herausforderung ist die Trennung des gemessenen Gravitationsfeldsignals von allen Störeinflüssen der Flugbewegung. Es gibt im Wesentlichen drei alternative Lösungsansätze, die sich in Auswertestrategie und technologischem Konzept unterscheiden. Die Arbeiten in Kanada und in der Bundesrepublik sind dabei wegweisend.
Abb. 6: Prinzip der Satellitenmission GOCE: Gravitationsfeldbestimmung mit Hilfe eines Gravitationsgradiometers in Kombination mit Verbindungsmessungen zu den GPS-Satelliten.
Im Rahmen einer durch das FuE-Programm GEOTECHNOLOGIEN geförderten vergleichenden Studie werden diese drei alternativen Ansätze untersucht. Ziele der Partner im Verbundprojekt „Fluggravimetrie“ sind Weiterentwicklung und Vergleich der drei Konzepte. Grundidee ist die Beobachtung der Gesamtbeschleunigung auf einem bewegten Träger , die sich aus Gravitation und Flugzeugbewegung zusammensetzt. Die Registrierung erfolgt mit Beschleunigungsmessern. Unabhängig hiervon wird der Beschleunigungsanteil der reinen Flugzeugbewegung und die Drehbewegung des Flugzeugs mittels GPS und Kreiseln erfasst. Aus der Differenz von Gesamt- und Flugzeugbeschleunigung wird die Schwere beziehungsweise der Gravitationsvektor abgeleitet. Das Ziel ist dabei eine räumliche Auflösung von circa 1 km. Während für eines der Konzepte ein Vertikalakzelerometer auf eine kreiselstabilisierte Plattform montiert wird, verfolgen die beiden anderen Ansätze das StrapDown-Prinzip. Bei ihm werden die Beschleunigungsmesser im Flugzeug fest montiert, sie werden damit voll den Flugbewegungen ausgesetzt. Der Bewegungsablauf wird über sehr genaue Laserkreisel erfasst. Die beiden StrapDown-Ansätze unterscheiden sich durch die Akzelerometerausstattung, einmal eine Eigenentwicklung direkt zugeschnitten auf derartige Messungen (siehe Abb. 7) und das andere Mal ein aus der Trägheitsnavigation entlehntes System.
Geosensor Ringlaser erfassen Rotationen lokal, das heißt ohne Bezug zum Fixsternhimmel. Sie stellen daher ein alternatives Messkonzept zu den geodätischen Raumverfahren, wie VLBI, dar. Für eine geowissenschaftliche Nutzung sind jedoch Ringlaser mit einer extrem hohen Genauigkeit und Auflösung notwendig. Der im Juni 2001 in Betrieb genommene Großringlaser im Untergrundlabor des Observatoriums Wettzell (siehe Abb. 8) ist eine Weltneuheit. Mit ihm wird eine Relativgenauigkeit von einem Milliardstel (10-9) angestrebt. So konnte erstmals die tägliche Wanderung der Rotationsachse der Erde, die sogenannten Oppolzer-Terme, experimentell nachgewiesen werden. Auch die Messbarkeit von nichtperiodischen Störungen der „gleichförmigen“ Erddrehrate in einem Zeitbereich von 1 bis 2 Tagen zeichnet sich ab. Der logische nächste Schritt ist die Entwicklung eines transportablen Ringlasers, eines Geosensors, mit dem erstmals die durch Erdbeben verursachten Rotationsbewegungen beobachtet werden könnten. Rotationen in Zusammenhang mit Erdbeben sind in der Literatur zwar angesprochen, aber bisher nicht messbar. Mit
Abb. 7: Prototyp Strap-Down-Fluggravimeter SAGS.
dem nun im Rahmen des FuE-Programms GEOTECHNOLOGIEN in Entwicklung stehenden Geosensor, sollen diese Untersuchungen möglich werden. Hierzu werden an der Ludwigs-Maximilians-Universität München die gegenwärtigen Erdbebenmodelle für die Berücksichtigung von Rotationsanteilen erweitert. Der Beginn der Sensor-Integration wird für die zweite Jahreshälfte 2003 erwartet. Als weitere Anwendung dieses Messansatzes zeichnet sich die Bauwerksüberwachung in erdbebengefährdeten Gebieten ab. Erstmals könnten so durch Erdbeben induzierte Torsionskräfte an Bauwerken erfasst werden. Das geodätisch-geodynamische Beobachtungssystem in der eingangs beschriebenen Form wird in den nächsten Jahren aufgebaut werden. International wie national sind bereits wichtige Teilschritte zu seiner Realisierung getan. Für den Zeitraum bis 2006 und danach sind die notwendigen Satellitensysteme bereits im Orbit beziehungsweise im Bau, (siehe Tab. 1) Komplementäre terrestrische Messsensoren und Flugmesssysteme werden
Abb. 8: Großringlaser im Satellitenobservatorium Wettzell: Messung der Schwankungen der Erdrotation im Labor ohne Anbindung zu Quasaren oder Satelliten.
derzeit entwickelt (vergleiche Kapitel „Das Erdinnere“). Das geplante Beobachtungssystem entspricht einem einzigen erdumspannenden Großobservatorium, das aus Hunderten von über die Erde verteilten Einzelmessstationen aufgebaut ist. Alle Stationen sind millimetergenau verknüpft und synchronisiert und vereinigen in sich mehrere sich ergänzende Beobachtungsverfahren. Integraler – und sehr wesentlicher – Bestandteil des Großobservatoriums sind die geodätisch nutzbaren Satellitensysteme, insbesondere alle in der Tabelle aufgelisteten Satellitenmissionen. Auch sie werden in dieser Strategie miteinander vernetzt und ihre Messreihen durch diese Vernetzung vergleichbar und kombinierbar. Das Beobachtungssystem wird einen wesentlichen Beitrag zum Verständnis der Dynamik des Erdsystems leisten können, das heißt zum Verständnis der Wechselwirkung von inneren und äußeren Kräften im System „Atmosphäre, Ozeane, Eismassen und feste Erde“. Wichtige Klima-, Umwelt- und Ressourcenfragen sind hiervon berührt. Das geodätisch-geodynamische Beobachtungssystem misst die raum-zeitlichen Veränderungen der Erdfigur, das heißt die Veränderungen des Meeresspiegels, der Eisoberflächen und die tektonischen und isostatischen beziehungsweise isodynamischen Verformungen des Erdkörpers. Es werden aber auch die durch Massenverlagerungen in Atmosphäre, Ozeanen, Eiskappen und fester Erde verursachten Schwere- beziehungsweise Geoidanomalien und Erdrotationsschwankungen erfasst. Die entscheidende neue und zusätzliche Qualität in der Erdsystemforschung entsteht aus der Kombination dieser drei Einzelelemente: Geokinematik (Veränderungen der Erdfigur), Erdrotation und Schwere/Geoid. Erstmals werden sich Massentransporte im Erdsystem erfassen, verfolgen und – im Sinne einer Bilanzierung – quantifizieren lassen. Für die Erforschung von Ozeantransporten, der Wasserkreisläufe, der Eismassenbilanz und Meeresspiegelschwankungen und der Dynamik von Erdkruste und -mantel wird dies einen Quantensprung bedeuten. Massen- und Energietransporte sind Schlüsselgrößen für ein Verständnis der Dynamik des Erdsystems. Mit dem beschriebenen Ansatz wird ein neues, sehr zentrales Segment der Erdsystemforschung geöffnet. Mit der signifikanten Beteiligung an den Satellitenmissionen CHAMP, GRACE, GOCE, CRYOSAT, ERS-1 & 2, ENVISAT und TerraSAR-X (siehe Tab. 1) liefert Deutschland einen wichtigen Beitrag zur Realisierung dieses Beobachtungssystems und zur Klima-, Umwelt- und Erderforschung allgemein. Es muss nun gelingen, diese guten Randbedingungen optimal für Forschung und Entwicklung zu nutzen. Mit der Förderung des Themas „Beobachtung des Systems Erde aus dem Weltraum“ durch das BMBF und durch die DFG
7
wurde bereits ein wichtiger Schritt getan (siehe auch Seite IX).
8
In der Folgephase sollte primär folgendes sichergestellt werden: • Das Beobachtungssystem muss mit der erforderlichen Genauigkeit, Konsistenz und Stabilität umgesetzt werden. Hierzu sind die methodischen Grundlagen für den Internationalen Erdrotationsdienst IERS, die notwendige Dateninfrastruktur und technologische Umsetzung des Raum-, Flugzeug- und Bodensegments weiterzuentwickeln. • Die Arbeiten der deutschen Auswertezentren beziehungsweise der deutsche Beitrag an den internationalen Auswertekonsortien zur Aufbereitung, Verarbeitung und Analyse der bei den laufenden, anlaufenden und geplanten Satellitenmissionen (siehe Tab. 1) anfallenden Messreihen (die Schaffung von sogenannten Level-1 und Level-2 Produkten) muss sichergestellt werden. Nur dadurch lässt sich der Informationsgehalt der Daten dieser Missionen mit Hilfe einer
breiten Nutzergemeinschaft für die Erd-, Klima- und Umweltforschung voll ausschöpfen. • Es entstehen neuartige Datenreihen. Ihre Nutzung für Forschung und Anwendung sollte gefördert und entwickelt werden. Es geht dabei im weitesten Sinn um Massentransporte und Massenverteilung im System Erde – ein wesentlicher Teilaspekt bei der Modellierung der Erde als ein dynamisches Multikomponentensystem im Sinne eines 4-D-Erdmodells – und umfasst Prozesse wie den Transport ozeanischer Wassermassen, den Kreislauf des Wassers im Untergrund, die Eismassenbilanz und Meeresspiegelschwankungen und die Dynamik von Erdkruste und -mantel. Damit könnte Deutschland auf einem sehr zukunftsträchtigen Gebiet der Erdsystemforschung seine technologische und wissenschaftliche Spitzenstellung festigen.
Tab. 1: Aktuelle Satellitenmissionen mit Bezug zum Thema “Beobachtung des Systems Erde”, und mit starker deutscher Beteiligung (fett gedruckt).
Missionsbezeichnung
Missionstyp
geplante Laufzeit
CHAMP (D) GRACE (USA/D) GOCE (ESA)
Schwere/Magnetfeld/Atmosphäre Schwere (stationär, zeitabh.), Atmosph. Schwere (stationär, hochauflösend)
2000 – 2007 2002 – 2010 2006 – 2008
TOPEX-POSEIDON (USA/F) Jason-1 (USA/F)
Ozean-Altimetrie
1992 – 2004
Ozean-Altimetrie
2001 – 2006
ICESAT (USA) CRYOSAT (ESA)
Eis-Altimetrie Eis-Altimetrie
2003 – 2008 2004 – 2007
ERS-2 (ESA) ENVISAT (ESA) TerraSAR-X (D)
Altimetrie/Klima/Umwelt Altimetrie/Klima/Umwelt SAR/INSAR/Atmosphäre
1995 – 2005 2002 – 2007 2005 – 2010
LAGEOS-1 & 2 (USA)
Referenzsystem, Schwere
1975 - offen
GPS (USA)
Navigation/Positionierung/ Bahnen/Zeit/Erdrotation
1978 - offen
Navigation/Positionierung
2008 - offen
GALILEO (EU, ESA)
Das Erdinnere als treibende Kraft geowissenschaftlicher Prozesse
D
ie geowissenschaftlichen Prozesse an der Erdoberfläche sind vielfach das Ergebnis von Wechselwirkungen zwischen Kräften des Erdinneren und Einflüssen der Atmosphäre. Chemische und physikalische Unterschiede zwischen dem Erdinneren und der Erdoberfläche, wie zum Beispiel der Temperaturgradient, treiben diese Prozesse an, die die Erde zu einem dynamischen System werden lassen. Die Kräfte im Erdinneren können die Lebensbedingungen des Menschen unmittelbar beeinflussen: Erdbeben entstehen durch Spannungen in der Erdkruste, die auf Fließprozesse im Erdmantel zurückgehen. Die Auffaltung von Gebirgen, die Bildung von Sedimentbecken, das Wachsen und Verschwinden von Ozeanen, ja fast alle geodynamischen Vorgänge sind das direkte oder indirekte Resultat dieser Fließvorgänge im Erdinneren.
Durch die stetige Konvektion im Erdinneren ist der Erdmantel sowohl Quelle, als auch Senke der globalen geochemischen Kreisläufe. In Subduktionszonen verschwindet Material aus dem äußeren Kreislauf. An den mittelozeanischen Rücken wird es ihm in Form von Magma wieder zugeführt. Die in Vulkanen geförderte Lava hat ihren Ursprung oder zumindest ihre Wärmequelle im Erdmantel. In der Lava gelöste Gase führen zu explosivem Vulkanismus und zur Gefährdung ganzer Regionen. Gase die bei großen Vulkanausbrüchen freigesetzt werden, verändern pulsartig die Erdatmosphäre, weit mehr als anthropogene Einflüsse. Der Wärmeinhalt aufsteigenden Magmas verursacht lokale geothermische und geochemische Anomalien, die für die Wärmegewinnung und die Lagerstättenbildung von großer Bedeutung sind. Bei der Konvektion flüssigen Eisens im äußeren Erdkern, wird kinetische in magnetische Energie umgewandelt. Das erzeugte geomagnetische Feld bildet zusammen mit der Atmosphäre einen Schutzschild um die Erde gegen den Einfall kosmischer Strahlung aus dem Weltraum; es hat damit starken Einfluss auf die Entwicklung der Biosphäre. Das Verständnis der Prozesse im Erdinneren und ihrer zeitlichen Variation ist daher neben dem grundlegenden geowissenschaftlichen Interesse auch von hoher technologischer Bedeutung.
9
Themenschwerpunkt: „Das Erdinnere als treibende Kraft geowissenschaftlicher Prozesse“ Förderstatus BMBF: Zur Zeit keine Förderung durch den BMBF.
10
Förderstatus DFG: DFG-Schwerpunktprogramm „Erdmagnetische Variationen: Raum-Zeitliche Struktur, Prozesse und Wirkungen auf das System Erde“ seit 2000. Fördervolumen: circa 1,7 Millionen Euro pro Jahr. Ziel: Quantifizierung des Erdmagnetfeldes in Form von Geodynamomodellen und deren Anwendung in Wissenschaft und Praxis. Beteiligte Institutionen: Interdisziplinärer Verbund aus Universitäten und außeruniversitären Einrichtungen.
Aufbau und Dynamik des Erdinneren: Einfluss auf Erdoberfläche und Atmosphäre
U
nsere Kenntnis des Erdinneren stützt sich vor allem auf geophysikalische Messungen am Erdkörper, die geochemische Analyse der Minerale und Gesteine und die Materialeigenschaften irdischer Materie, aber auch auf den Vergleich mit anderen Planeten des Sonnensystems. Eine Synthese und die Entwicklung eines globalen, dynamischen Modells werden über Modellierungsverfahren erreicht, welche die physikalischen, chemischen und Materialparameter als Randbedingungen verwenden. Die räumlichen und zeitlichen Skalen der Prozesse reichen vom atomaren bis zum globalen Maßstab, sowie von kurzfristigen Ereignissen zu Jahrmillionen oder -milliarden. Die Großeinheiten der Erde (Abb. 9) zeigen spezifische Stoffeigenschaften und eine ganz unterschiedliche Dynamik. Die Erdkruste mit einer Mächtigkeit von circa 10 bis 80 km (je nach tektonischer Situation) ist heterogen und besteht aus Sedimenten sowie magmatischen und metamorphen Gesteinen. Der Erdmantel (bis zu einer Tiefe von 800 km) ist aus SiO2-armen silikatischen Gesteinen (Periotit) aufgebaut. Die Gesteine verhalten sich infolge der hohen Temperaturen ab einer Tiefe von circa 150 km plastisch und befinden sich in einer langsamen (circa cm/Jahr) Konvektionsbewegung im festen Zustand. In geringeren Tiefen verhält sich jedoch der Erdmantel ebenso wie die Erdkruste spröde; diese bruchhaften Verformungen äußern sich in Erdbeben. Oberster Erdmantel und Erdkruste werden daher auch als Lithosphäre zusam-
mengefasst. Der Erdkern besteht zum überwiegenden Teil aus Eisen, das im äußeren Erdkern flüssig, im inneren Erdkern fest ist. Die rasche Konvektion des flüssigen Eisens (circa mm/Sekunde) ist für die Erzeugung des Magnetfeldes der Erde maßgeblich verantwortlich. Diese Großeinheiten der Erde stehen physikalisch und chemisch in Wechselwirkung, sowohl untereinander als auch mit der Hydro- und Atmosphäre und dem äußeren Magnetfeld der Erde. Durch die Kopplung mit der Kruste wird der Erdmantel in die geochemischen Zyklen sowohl als Quelle als auch als Senke einbezogen. Die Subduktionszonen sind der Ort starker Erdbeben und ihre Dynamik bestimmt die Plattentektonik. Die gashaltigen Magmen, die an Subduktionszonen gebildet werden, bewirken explosiven Vulkanismus und stören schlagartig die atmosphärischen Gleichgewichte mit zum Teil drastischen Einflüssen auf unser Klima. Die Grenze zwischen Erdmantel und Erdkern ist der Ort steiler Gradienten der physikalischen Parameter (insbesondere der Temperatur) und der chemischen Zusammensetzung. Die Kopplung beider Einheiten führt zu einer markanten Gradientenzone (der sogenannten D"-Lage), über deren Natur jedoch bisher wenig bekannt ist. Das im äußeren Erdkern entstehende Magnetfeld wirkt bis in den Außenraum unseres Planeten und bestimmt die Wechselwirkung der Erde mit dem interplanetaren Medium, dem Sonnenwind. Die zeitlich und räumlich variable Intensität des Erdmagnetfelds führt unter anderem zu einer Variation der Intensität ionisierender Strahlung, die die Atmosphäre beziehungsweise die Erdoberfläche erreicht. Für unser Verständnis der Erde als ein dynamisches System ist es daher nicht nur wichtig, die stofflichen und physikalischen Eigenschaften der einzelnen Großeinheiten zu erfassen, sondern insbesondere ihre Dynamik zu verstehen und vorherzusagen. Dies gilt sowohl für die Prozesse innerhalb der Einheiten, als auch für ihren energetischen und chemischen Austausch.
Ansätze zur Erforschung der Prozesse im Erdinneren Bei einem Erdradius von 6371 km können nur die obersten circa 10 km durch Tiefbohrungen direkt beobachtet werden. Für über 99 % des Volumens der Erde ist eine Kombination indirekter Verfahren heranzuziehen. Unter diesen sind zu nennen: • Geophysikalische Messungen am Erdkörper. Aus den Laufzeiten von Erdbebenwellen lassen sich die elastischen Eigenschaften der Erde und die Dichte der Materie als Funktion der Tiefe bestimmen. Moderne tomographische Methoden der Seismologie erlauben zusätzlich die Erfassung lateraler Inhomogenitäten. Zum Beispiel äußern sich die (relativ kalten) Subduktionszonen in Form erhöhter Wellengeschwindigkeiten; sie lassen sich so bis in Tiefen von mindestens 660 km lokalisieren. Aufsteigende, heißere Materie im Erdmantel („mantle plumes“) führt zu einer lokalen Erniedrigung der Wellengeschwindigkeiten. Die seismische
11
Abb. 9: Das Erdinnere und seine Dynamik. Der aus flüssigem Eisen bestehende äußere Erdkern befindet sich in einer raschen Konvektionsbewegung und erzeugt das Magnetfeld der Erde. Der Erdmantel besteht aus festem Silikatgestein, das durch langsame Konvektionsbewegung die Plattentektonik in der starren Erdkruste und dem obersten Erdmantel (= Lithosphäre) bewirkt.
Tomographie erlaubt damit erstmals direkte Einblicke in die Dynamik des Erdinneren und in Kombination mit Materialparametern und Modellierung, Aussagen über die gegenwärtige Temperaturverteilung als Funktion von Tiefe und Ort. Weitere wichtige messbare Größen sind die elektrische Leitfähigkeit, die effektive Viskosität und das globale Magnetfeld der Erde. Die Ortsauflösung der letzteren Methoden ist allerdings in Tiefen des Erdmantels und des Erdkerns noch nicht sehr hoch, so dass sich derzeit nur Aussagen über die generelle Variation dieser Parameter mit der Tiefe treffen lassen. Die genannten Verfahren werden erweitert durch die satellitengestützte Beobachtung der Erde von außen her (vergleiche Kapitel „Beobachtung des Systems Erde im Weltraum“). • Geochemische Analyse der Produkte, die durch Prozesse in großen Tiefen entstehen. Viele Typen von Magmen werden durch teilweise Aufschmelzung des Erdmantels gebildet, zum Teil in relativ geringen Tiefen von circa 100-150 km durch aufsteigende Mantel-
gesteine (Ozeanbasalte), zum Teil durch Wechselwirkung zwischen hydrierter Erdkruste mit dem Erdmantel in den Subduktionszonen (Andesite der Orogenzonen), zum Teil in wesentlich größeren Tiefen (circa 660 km) unter speziellen, bisher wenig verstandenen Bedingungen (Kimberlite). Die chemische Analyse dieser Aufschmelzprodukte und der Stoffe, die sie in die Erdatmosphäre freisetzen, erlaubt in Kombination mit (kosmo-) chemischen Modellen zur Zusammensetzung der Erde Rückschlüsse auf die chemische Konstitution des Erdmantels und seine Beziehung zum Erdkern sowie die zeitliche und örtliche Entwicklung. Mit diesem Verfahren sind die Prozesse im oberen Erdmantel (einschließlich der sogenannte Übergangszone bis 660 km Tiefe) bisher recht gut verstanden, zum tieferen Erdmantel ist die Evidenz kontrovers. • Mineralogie von Proben aus großer Tiefe. Vor allem Einschlüsse in Diamanten sind weitgehend unveränderte Proben des Erdmantels, mit Information zur mineralogischen (zusätzlich zur chemischen) Konstitution des Erdmantels. Mit ihrer Hilfe kann die Abfolge von Mineralen als Funktion der Tiefe bis mindestens 660 km ermittelt werden. Weitere Einblicke über das Hochdruckverhalten der Materie ergeben sich aus dem Studium von Meteoriten, die zum Teil sehr hohen Stoßwellendrücken ausgesetzt waren. • Experimentelle Geochemie und Geophysik. Unter Annahme realistischer chemischer Zusammensetzungen werden im Labor die Eigenschaften der Materie unter
12
den relevanten Drücken und Temperaturen untersucht. Welche Verbindungen und welche Kristallstrukturen sind als Funktion von Druck, Temperatur und chemischer Zusammensetzung stabil und was sind ihre physikalischen und chemischen Eigenschaften? Neben Gleichgewichtszuständen werden auch dynamische Prozesse (Kinetik von Reaktionen und Phasentransformationen, Rheologie) bestimmt (Abb. 10). Diese Forschungsrichtung ist letztendlich eine materialwissenschaftliche, eingegrenzt auf die irdische Materie und spezialisiert auf extreme Drücke und Temperaturen. • Numerische Modellierung. Die im Erdkörper gespeicherte bzw. produzierte Wärme wird durch Konvektionsströme in mechanische Energie umgewandelt. Diese stellen den Antriebsmechanismus für alle endogenen geologischen Prozesse dar, von der Plattentektonik bis zur Erzeugung und Variation des Erdmagnetfeldes. Die Beschreibung der Konvektionsströme in Raum und Zeit ist nur durch Modellierung unter Berücksichtigung der Stoffeigenschaften und der Ergebnisse der seismischen Tomographie möglich. Konvektionsströme müssen durch nichtlineare mathematische Gleichungen beschrieben werden, und die Modellierung solcher komplexer Systeme wird erst durch die Verfügbarkeit extrem leistungsfähiger Computer und Entwicklung neuer Software möglich. Bisherige Ergebnisse zeigen, dass die Materieströmungen im Erdmantel und im Erdkern zeitlich und örtlich flukturieren, so dass neben langsamen, graduellen Änderungen immer wieder spontane Ereignisse auftreten, wie das Aufbrechen von Kontinenten, episodische und örtlich lokalisierte Häufung von Vulkanismus oder die Umkehr des Erdmagnetfeldes. Ein wesentlicher Fortschritt in der Bewältigung der großen geowissenschaftlichen Zukunftsaufgaben wird nur dann zu erreichen sein, wenn diese ganz verschiedenen methodischen Ansätze integriert werden. Die im übernächsten Abschnitt geschilderten Forschungs- und Entwicklungsaufgaben zeigen die notwendige enge Verknüpfung der traditionellen geowissenschaftlichen Teildisziplinen. Sie spannen den Bogen von einer atomaren Betrachtungsweise irdischer Materie bis zu den globalen physikalischen und chemischen Prozessen sowie zu ihrer Bedeutung für das Geomanagement.
Stand der Entwicklung und Anwendung Unsere Kenntnis der Prozesse im Erdinneren hat in den letzten circa 10 Jahren sprunghaft zugenommen, da insbesondere auf den Gebieten der seismischen Tomographie, der Hochdruck-Materialforschung, der geochemischen Analytik und der Modellierung des Gesamtsystems Erde große Fortschritte erzielt wurden. Ein „Quantensprung“ der Erkenntnis des Systems Erde, insbesondere für das Geomanagement, ist in naher Zukunft durch die Integration dieser Teilaspekte zu erwarten. Im folgenden Überblick über die deutsche Expertise auf dem Gebiet der Dynamik des Erdinneren seien nur
Abb. 10: Teilweise in Hochdruckminerale (Wadsleyit, Ringwoodit) experimentell umgewandelter Olivin-Einkristall (Zentrum), umgeben von einer vollständig umgewandelten feinkörnigen Matrix. Die Breite des umgewandelten Saums ist ein Maß für die Umwandlungsgeschwindigkeit. Die Kantenlänge des Einkristalls beträgt 0,5 mm.
die wichtigsten Gruppen genannt, die mit erdgebundenen Beobachtungssystemen, Laborexperimenten oder Modellierung arbeiten. Satellitengestützte Technologien werden im Kapitel „Beobachtung des Systems Erde aus dem Weltraum“ behandelt. Alle genannten Arbeitsgruppen sind in nationale und internationale Programme geowissenschaftlicher Forschung eingebunden. Die Gruppen ergänzen sich in der Konzeption, der beherrschten Methodik und von ihrer Ausstattung her für die unten beschriebenen integrierten (und integrierenden) Forschungs- und Entwicklungsprojekte. Verschiedene Arbeitsgruppen an deutschen Universitäten arbeiten auf dem Gebiet der Modellierung geodynamischer Prozesse (vor allem die Geophysik in Bonn, Göttingen, München und Münster). Probleme des Erdmagnetismus, der zeitlichen Variationen des Erdmagnetfeldes und möglicher Auswirkungen dieser Variationen auf das System Erde werden unter anderem von Physik und Geophysik-Arbeitsgruppen in Bayreuth, Braunschweig, Bremen, Göttingen, Münster, Potsdam (GFZ) und Osnabrück behandelt. Seismologie des Erdmantels wird am Zentralobserva-
torium Gräfenberg sowie – unter besonderer Berücksichtigung der Tomographie – am GeoForschungsZentrum Potsdam betrieben. Dort stehen auch die Seismik-Daten überlanger, mit Atomexplosionen erzeugter seismischer Profile aus dem Gebiet der ehemaligen Sowjetunion zur Verfügung, die bisher ungeahnt detaillierte Informationen über den Aufbau der oberen ca. 700 km der Erde geliefert haben. Die Erforschung der Materialeigenschaften irdischer Materie und ihrer Dynamik ist der Schwerpunkt der Arbeiten des Bayerischen Geoinstituts in Bayreuth. Neben der Weiterentwicklung der Hochdruck-Methodik werden dort die Gleichgewichtszustände, die Kinetik der Transformationen und die ganze Breite der physikalischen und chemischen Eigenschaften untersucht. Ein weiterer Schwerpunkt ist das Verhalten von Magmen (Bildung, Eigenschaften, Transport, Eruption). Auf dem Gebiet der Rheologie konzentriert sich Bayreuth auf den plastischen Bereich und die Mechanismen tiefer Erdbeben. Am GeoForschungsZentrum Potsdam werden insbesondere die Rheologie und die Transporteigenschaften der Erdkruste untersucht. Einen Schwerpunkt bilden die mit der Entstehung von Erdbeben verknüpften Bruchprozesse sowie der Übergang von spröder zu duktiler Verformung. Gesteins- und Mineralrheologie ist auch das Thema einer größeren Arbeitsgruppe am Institut für Geologie, Mineralogie und Geophysik der Ruhr-Universität Bochum. Geochemische Analytik und Isotopengeochemie zur Erfassung und Modellierung von Mantelprozessen wird schwerpunktmäßig am Max-Planck-Institut für Chemie in Mainz betrieben. Die unten skizzierten Projekte sind zwar in der Grundlagenforschung verankert, bilden aber die Basis für eine langfristig erfolgreiche direkt anwendungsbezogene Forschung, die zum Teil in den folgenden Kapiteln weiter detailliert wird: • Quantifizierung der Antriebskräfte von Platten, mit Rückwirkungen auf die Erdbebenforschung; • Bilanzierung des globalen und regionalen Wärmeflusses, Rückwirkungen auf die Geothermik; • Vervollständigung geochemischer Stoffzyklen durch Einbeziehung des Erdmantels (Quelle und Senke) und damit Quantifizierung zum Beispiel von nichtanthropogenem, meist episodischem Schadstoff-Eintrag in die Atmosphäre – damit Rückwirkungen auf die Klimaforschung; • Entwicklung neuer Prospektionsmethoden für die Lagerstättenforschung; • Abschätzung vulkanischer Risiken, gegebenenfalls Frühwarnsysteme; • Entwicklung von Methoden zur Simulation konvektiver Massen- und Wärmetransport-Prozesse; • gezielte Entwicklung neuer Materialien durch Hochdrucksynthese.
13
Abb. 11: Installation einer 5000 t-Presse am Bayerischen Geoinstitut, Bayreuth. Mit dieser Presse lassen sich Eigenschaften der Erdmaterie unter Drücken bis über 25 GPa (das heißt mehr als 700 km Erdtiefe) in großen Volumina untersuchen.
Notwendige Forschungs- und Entwicklungsaufgaben Die nachfolgend beschriebenen Projekte sind Teil der Gesamtkonzeption, die im Erdinneren ablaufenden Prozesse und die mechanische und energetische Kopplung der verschiedenen Tiefenzonen durch eine Kombination verschiedener methodischer Ansätze zu erhellen und die Erkenntnisse für das Geomanagement nutzbar zu machen. a. Hochdruckchemie und Hochdruckphysik irdischer Materie In diesem Projekt wird angestrebt, die Dynamik des Erdmantels als Funktion von Ort und Zeit über die Kenntnis der relevanten Materialeigenschaften zu verstehen. Diese Eigenschaften können im Labor meistens nur unter in situ-Bedingungen bei hohen Drücken und Temperaturen sowie unter Kontrolle der chemischen Potenziale gewonnen werden. Dies stellt eine hohe Herausforderung an die Messtechnik und Dateninterpretation dar. Die Messung vieler physikalischer Eigenschaften unter in situ-Bedingungen (wie elektrische und thermische Leitfähigkeit, Wellengeschwindigkeiten, rheologische Parameter) setzt eine Mindestprobengröße von etwa 5 bis
14
10 mm3 voraus. Ähnliches gilt für die erforderlichen Probenvolumina, die zur Synthese von Einkristallen der Hochdruck-Strukturen mit dem Ziel der Strukturaufklärung benötigt werden, für die (ex situ) Messung thermodynamischer Eigenschaften und für die Bestimmung chemischer Diffusionskoeffizienten. Diese Messungen sind bisher – vor allem bedingt durch das mit steigendem Drücken immer weiter abnehmende verfügbare Probenvolumen – nur vereinzelt und lediglich bis in den Druckbereich von circa 14 GPa durchgeführt worden, das heißt nur für Tiefen, die etwa der Grenze zwischen dem oberen Erdmantel und der Übergangszone (vergleiche Abb. 9) entsprechen. Es wird vorgeschlagen, die Vielstempeltechnik weiterzuentwickeln, die zur Zeit Probenvolumina bis zu 10 mm3 bei 10 GPa und 5 mm3 bei 14 GPa erlaubt. Ziel ist es, die verfügbaren Probenvolumina zu vergrößern und den Druckbereich zu erweitern. Ersteres kann durch Erhöhung der Presskraft (derzeit in der Regel 1.000 t) und entsprechende Vergrößerung des Druckwerkzeugs erreicht werden, letzteres durch den Einsatz von Sinterdiamanten oder kubischem Bornitrid an den mechanisch besonders beanspruchten inneren Stempeln. Vorversuche am Bayerischen Geoinstitut haben gezeigt, dass selbst mit konventionellen Hartmetallstempeln durch die Erhöhung der Presskraft auf circa 3.000 t Probenvolumina von circa 5 mm3 bei circa 23 GPa erreicht werden können (vergleiche Abb. 11). In Japan sind mit Sinterdiamantstempeln Drücke von 60 GPa in diesen Apparaturen erreicht worden, allerdings noch bei sehr kleinen (< 1 mm3) Volumina. Das technologische Ziel scheint daher erreichbar. Die Überlegungen gelten gleichermaßen für in situMessungen in der zweistufigen Apparatur (sogenannte 68 Konfiguration, Typ Bayerisches Geoinstitut), als auch für die einstufige (sogenannte MAX80, GFZ Potsdam) Apparatur (speziell für Beugung von Synchrotronstrahlung unter in situ-Bedingungen). Des Weiteren ist die in situ-Messtechnik in Richtung größerer Genauigkeit und kleinerer Probenvolumina weiterzuentwickeln. Bei der besonders wichtigen Bestimmung elastischer Eigenschaften zur Messung der Geschwindigkeit seismischer Wellen ist dies zum Beispiel durch Ultraschall-Interferometrie im Mega- bis Gigaherzbereich möglich. Auch für die ex situ-Charakterisierung von Produkten sind Messverfahren, besonders mit hoher Ortsauflösung, zu verbessern. Aus diesen methodischen Weiterentwicklungen werden – neben Einblicken in den Aufbau und die Dynamik der Erde – auch grundlegende Erkenntnisse zur Synthese von Materialien mit maßgeschneiderten Eigenschaften erwartet. b. Tomographie und Modellierung der Konvektion In diesem Projekt sind hoch ortsaufgelöste Verfahren der geophysikalischen Beobachtung des Erdkörpers (wie die seismische Tomographie) zur Beschreibung des IstZustands des Erdmantels zu entwickeln. Ziel ist es, die vertikale und horizontale Variabilität von Eigenschaften zu bestimmen, die Geometrie von subduzierten Platten in der Übergangszone und im tieferen Erdmantel zu verfol-
gen und die Anisotropie der seismischen Wellenausbreitung zu erfassen. Durch den Vergleich mit Materialparametern lassen sich so die Fließstruktur und der Deformationsmechanismus der Erdmantelgesteine ableiten. Zum Beispiel lässt der Vergleich der seismischen Anisotropie mit richtungsabhängigen elastischen Konstanten der Hochdruckminerale Aussagen zum Gefüge der Erdmantelgesteine zu. Weiterhin sind Computermodelle zur 4-D (Raum, Zeit)-Modellierung der Prozesse in Kugelsymmetrie unter Einbeziehung der Variation der Stoffeigenschaften zu entwickeln und über den Vergleich mit den tomographischen Ergebnissen zu verifizieren. Zur Klärung spezieller Teilaspekte werden darüber hinaus vereinfachte Modelle erforderlich sein, mit denen zum Beispiel die Mischungseigenschaften dreidimensionaler, zeitlich veränderlicher Konvektion beschrieben werden können. Dies ist für die Umverteilung geochemisch signifikanter Elemente wichtig. Es soll die Modellierung von „mantle plumes” erfolgen, die für Vulkanismus außerhalb aktiver Kontinentalränder verantwortlich gemacht werden. In Mitteleuropa ist die Eifel-Vulkanzone mit einer letzten Eruption vor circa 10.000 Jahren, das heißt im geologischen Zeitmaß der Jetztzeit, möglicherweise auf einen Mantel-Plume zurückzuführen. Das Ablösen von „mantle plumes“ an der D"-Lage könnte zudem das Umklappen des Erdmagnetfeldes steuern. Die Modellierung der Transportprozesse in Mehrphasenströmungen ist wichtig für die Beschreibung der Erstarrung von Magmenkörpern und der Differenzierung des Erdkörpers in der Frühphase seiner Entstehung. Konvektionsströmungen steuern die Vorzugsorientierung anisotroper Minerale; ihre Modellierung kann die Ursachen seismischer Anisotropie erklären und in Kombination mit den anisotropen Materialeigenschaften, einen Anhaltspunkt für die Richtung von Konvektionsströmen liefern. c. Die Variation des Erdmagnetfeldes: Steht eine Feldumkehr bevor? Zeitliche Variationen des Erdmagnetfeldes gehören zu den raschesten globalen geologischen Veränderungen, die den Menschen bekannt sind. Im Bereich des Nordatlantik beobachtet man zum Beispiel zur Zeit eine Abnahme der Intensität des Magnetfeldes um etwa 3 % pro Jahr. Aus gesteinsmagnetischen Untersuchungen ist bekannt, dass sich die Richtung des Erdmagnetfeldes gelegentlich, das heißt in Abständen von einigen hunderttausend Jahren, umkehrt und während solch einer Umkehr das Erdmagnetfeld auf etwa 10 % seiner heutigen Intensität abnimmt. Es ist daher wahrscheinlich, dass sich das Magnetfeld der Erde kurz vor dem Zustand einer Umkehrung befindet. Andereseits ist es auch möglich, dass das Erdmagnetfeld zur Zeit deutlich stärker als im Mittel der vergangenen Jahrmillionen ist und die beobachtete Abnahmne nur auf eine Normalisierung hindeutet. Da das Magnetfeld wesentlich die Wechselwirkung der Erde mit dem interplanetaren Medium bestimmt und den Sonnenwind mit seinen hochenergetischen Teilchen von der Erdatmosphäre fernhält, sollen in diesem Projekt die Vorgänge während einer Feldumkehr und ihre erwarteten Aus-
wirkungen auf die Atmosphäre und Biosphäre erarbeitet werden. Die notwendigen Forschungs- und Entwicklungsaufgaben umfassen zunächst die kontinuierliche Überwachung des Erdmagnetfeldes mit erdmagnetischen Observatorien und insbesondere mit Satelliten im Weltraum (vergleiche Kapitel „Beobachtung des Systems Erde aus dem Weltraum“). Zur Voraussage der Vorgänge während einer Feldumkehr müssen die Möglichkeiten der gesteins- und paläomagnetischen Untersuchung der zeitlich-räumlichen Variationen in der geologischen Vergangenheit erweitert werden. Die Dynamoprozesse, die zur Entstehung des Erdmagnetfeldes im äußeren Erdkern führen, müssen im Labor und auf Großrechnern unter Berücksichtigung experimentell bestimmter Stoffparameter modelliert werden.
thoden zur Aufsuchung neuer Rohstoffvorräte möglich. Hieraus ergeben sich folgende notwendige Forschungs- und Entwicklungsaufgaben: Die von Vulkanen freigesetzten Gasmengen und Gaszusammensetzungen sind zu bestimmen und für die Vorhersage von Eruptionen und klimatischer Einflüsse zu nutzen. Messungen von Satelliten aus können nur sehr große Eruptionen und
15
Dieser Themenkomplex wird seit dem Jahr 2000 im Rahmen des DFG-Schwerpunktprogramms „Erdmagnetische Variationen: Raum-Zeitliche Struktur, Prozesse und Wirkungen auf das System Erde“ gefördert (siehe Seite X). d. Bildung und Entgasung von Magmen: Ursachen für explosiven Vulkanismus Große explosive Vulkaneruptionen können das Klima auf der Erde nachhaltig beeinflussen. Für das „Jahr ohne Sommer“ 1816, mit verheerenden Frostperioden in der nördlichen Hemisphäre, wird zum Beispiel die Eruption des Tambora (Indonesien) 1815 verantwortlich gemacht. Die gasreichen Magmen entstehen in einem Keil des Erdmantels oberhalb von Subduktionszonen, aus denen fluide Bestandteile zugeführt werden. Die im Magma gelösten Gase kontrollieren den Eruptionsprozess und verändern die Erdatmosphäre. Die Injektion von Schwefeldioxid in die Stratosphäre bei einer vulkanischen Eruption führt zur globalen Abkühlung: Schwefeldioxid wird hier zu Sulfat aufoxidiert, die Sulfat-Aerosole sind extrem stabil und können monate- bis jahrelang in der Stratosphäre bleiben, wo sie zu einer erhöhten Reflektion der Sonnenstrahlung führen. Daten des Ultraviolettspektrometers an Bord des Nimbus 7-Satelliten der NASA zeigen, dass bei der Eruption des Pinatubo (Philippinen) im September 1991 insgesamt 20 Millionen t Schwefeldioxid in die Stratosphäre injiziert wurden. Hierdurch wurde die optische Dicke der Stratosphäre noch Monate nach der Eruption um das hundertfache erhöht. Der Ausbruch des Pinatubo führte zu einer globalen Abkühlung von 0.5°C, die einen Teil der industriell bedingten Aufheizung der Atmosphäre durch Treibhausgase wie CO2 für einige Jahre kompensieren wird. Für die Vorhersage der Entwicklung des Klimas auf der Erde müssen daher die Bildung von Magmen und die Wechselwirkung von vulkanischer Aktivität und atmosphärischen Prozessen verstanden werden. Ein technologisch wichtiger Aspekt der Freisetzung von flüchtigen Bestandteilen aus Magmen ist die Bildung von magmatisch-hydrothermalen Erzlagerstätten. Versteht man diese Prozesse, die insbesondere an Subduktionszonen gebunden sind, so ist die Entwicklung von gezielteren Me-
Abb. 12: Die Aufzeichnung von akustischen Ereignissen (Emissionen) erlaubt es, Bruchprozesse im Gestein in situ zu verfolgen. Die Abbildung zeigt Ort (Kugelposition) und Stärke (Kugelgröße) der Emissionen in einer zylindrischen Granitprobe, die im Experiment bis zum Bruch belastet wurde.
wenige Gasspezies erfassen. Diese Daten müssen daher ergänzt werden durch die Beprobung von Gasen an der Erdoberfläche. Bisher sind solche Untersuchungen nur eingeschränkt möglich und oft mit hohen Sicherheitsrisiken behaftet. Die Weiterentwicklung der Infrarot-Emissionsspektroskopie kann die Analyse von freigesetzten heißen Gasen aus einer Entfernung von mehr als 10 km ermöglichen und gleichzeitig Daten über die Gastemperaturen liefern, die auch zur Vorhersage von akuten Eruptionen dienen können. Die Entwicklung dieser Tech-
16
nik befindet sich zur Zeit erst im Anfangsstadium. Die Verteilung von flüchtigen Bestandteilen, insbesondere Schwefel, zwischen Schmelze und Gasphase ist experimentell zu untersuchen. Um zu verstehen, wie die für die klimatische Entwicklung der Erde relevanten Schwefelspezies aus Magmen freigesetzt werden, muss ihre Verteilung zwischen einer Gasphase und Silikatschmelzen im Labor bestimmt werden. Wegen der extremen Korrosivität von Schwefelverbindungen bei hohen Temperaturen und Drücken sind diese Untersuchungen besonders schwierig, aber auch für das Verständnis magmatisch-hydrothermaler Erzlagerstätten entscheidend, da Erzmetalle hier in der Regel an Schwefel gebunden sind. Die Eruptionsdynamik und Entgasungsprozesse sollen modelliert werden. Die durch Vulkane freigesetzte Menge von Schwefeldioxid macht gegenwärtig etwa 10 % der anthropogenen Produktion aus. Im Gegensatz zum industriell freigesetzten Material, das in der Troposphäre bleibt und durch Regen sehr schnell ausgewaschen wird, können jedoch Vulkane Schwefeldioxid in die Stratosphäre injizieren, wo es eine lange Verweilzeit und nachhaltige klimatische Auswirkungen hat. Es liegt daher auf der Hand, dass für das Verständnis der Wechselwirkung von Vulkanen und Klima die Modellierung der Eruptionsdynamik (Höhe der Eruptionssäule, Massenfluss, Temperaturverteilung in der Eruptionssäule und so weiter) von entscheidender Bedeutung ist. Für die Entwicklung zuverlässiger Computermodelle werden insbesondere experimentelle Daten zur Viskosität von Schmelzen, zur Gaslöslichkeit in Schmelzen und zu Diffusionsgeschwindigkeiten benötigt. Neue analytische Methoden zur Untersuchung von Fluideinschlüssen in Mineralen sind zu entwickeln. Direkte Informationen über den Gehalt an flüchtigen Bestandteilen in Magmen und die Zusammensetzung freigesetzter Gase in natürlichen magmatischen Systemen erhält man aus der Untersuchung von Fluid- und Schmelzeinschlüssen in Mineralen. Mit gegenwärtigen Methoden ist aber eine vollständige Analyse und Interpretation der Bildungsbedingungen dieser Einschlüsse noch nicht möglich. Die weitere Entwicklung und experimentelle Kalibrierung von Raman- und Infrarotspektroskopischen Untersuchungsmethoden ist daher notwedig. e. Deformation des Erdmantels und der Lithosphäre Die mit hochauflösenden Messverfahren der Geodäsie (siehe Kapitel „Beobachtung des Systems Erde aus dem Weltraum“) heute direkt zu beobachtenden Bewegungen und Verformungen der Lithosphäre sind Ausdruck der Mantelkonvektion, die durch den Wärmeabtransport aus dem Erdinneren angetrieben wird. Sie erfordert die Deformation (in festem Zustand) von Gesteinen und Mineralen in allen Tiefenbereichen. Bei den niedrigen Temperaturen nahe der Erdoberfläche werden die Gesteine vor allem durch Spröd-Prozesse deformiert, was häufig zu Erdbeben führt (siehe Abb. 12). In Tiefen unterhalb circa 15 km ist die Deformation dagegen überwiegend aseismisch; sie wird durch thermisch aktivierte Prozesse, wie das Klettern von Dislokationen und Diffusionskriechen, bewirkt. Die mechanische Festigkeit der Gesteine der Li-
thosphäre und des Erdmantels wird durch zahlreiche Faktoren beeinflusst, wie Mineral- und Gesteinszusammensetzung, Temperatur, Druck, Stress, An- oder Abwesenheit von Schmelzen und so weiter. Trotz erheblicher experimenteller Anstrengungen in den letzten Jahrzehnten sind bisher nur wenige dieser Faktoren systematisch an Krusten- und Mantelgesteinen untersucht worden und das auch nur an wenigen einfachen Systemen. Die Arbeiten konzentrieren sich insbesondere auf die Deformation von Quarz- und OlivinAggregaten unter trockenen oder nassen Bedingungen, um Randbedingungen für die Deformation der Erdkruste beziehungsweise des obersten Erdmantels zu erhalten. Diese Daten werden heute für die Modellierung von Plattenkollisionen, Verbiegung der Lithosphäre und die Mantelkonvektion herangezogen. Andererseits besteht die Erde nicht aus einem einfachen, monomineralischen Gestein, und konventionelle Deformations-Apparaturen erreichen nur den Druckbereich der Erdkruste und des obersten Erdmantels. Daher mangelt es an rheologischen Daten für Minerale und Gesteine des unteren Erdmantels und der Übergangszone zur Modellierung der Konvektion, sowie für realistische polymineralische Gesteine der Erdkruste. Die zukunftsträchtigsten Forschungsfelder auf experimentellem Gebiet sind die Rheologie des unteren Erdmantels und der Übergangszone, die Deformation polymineralischer Gesteine der Lithosphäre, die Rolle der Fluide und die Anisotropie. Die Fließbewegungen im unteren Mantel, das heißt des volumenmäßig größten Bereichs des Erdinneren, sind die wichtigste Komponente der „Wärmekraftmaschine Erde“. Um realistische Modelle der Mantelkonvektion rechnen zu können und auch die noch offene Frage der Größe der Konvektionszellen zu klären, müssen rheologische Experimente an den wichtigsten Mineralen des unteren Erdmantels unter denjenigen Bedingungen durchgeführt werden, unter denen sie stabil sind. Da das Silikat Perovskit (das wichtigste Mineral des unteren Erdmantels) erst bei Drücken oberhalb circa 23 GPa stabil ist, müssen zur Messung seiner mechanischen Eigenschaften neue Geräte und Techniken entwickelt werden (siehe Abschnitt a) Hochdruckphysik). Die Übergangszone ist eine komplexe Region des Erdmantels, die ein wichtiges geochemisches Reservoir darstellt. Neue tomographische seismische Untersuchungen belegen, dass subduzierte ozeanische Kruste in der Regel in dieser Tiefe stagniert, aber gelegentlich auch in den unteren Erdmantel eindringt. Die experimentelle Bestimmung der Rheologie der Minerale der Übergangszone und ihrer Gesteine wird klären, unter welchen Bedingungen ein solches Eindringen möglich ist und was die Rückwirkungen auf die Spannungsverteilung in der subduzierten Kruste sind. Hiervon sind wiederum Antworten auf die Frage nach der Entstehung tiefer Erdbeben zu erwarten. Wie für die Rheologie des unteren Mantels ist auch hier die Entwicklung neuer Technologien erforderlich, zum Beispiel zur Bestimmung der mechanischen Eigenschaften von Majorit-Granat. Die derzeitig zur Modellierung von Lithosphären-Deformation verwendeten rheologischen Daten von Quarz
oder Olivin beschreiben die komplexen Gesteine nur unzulänglich, da andere Minerale oder sogar Schmelzen im allgemeinen volumetrisch wichtig sind und ganz andere Verformungseigenschaften aufweisen. Außerdem kann die Anwesenheit einer zweiten Phase (gleichgültig, ob ein anderes Mineral oder Schmelze) zu einer wesentlichen Verringerung der Festigkeit führen, da an den Korngrenzen Anpassungsprozesse stattfinden, die in einphasigen Systemen nicht auftreten. Daher ist es wichtig, die Deformation polymineralischer Aggregate zu untersuchen, wie zum Beispiel Pyroxen + Plagioklas oder Olivin + Orthopyroxen. Die Anwesenheit von Wasser führt zu einer drastischen Verringerung der Festigkeit vieler Silikat-Minerale; die Rolle anderer volatiler Spezies wie Kohlenstoff oder Schwefel ist weitgehend unbekannt. Außerdem werden Minerale, insbesondere solche mit Übergangsmetallelementen, von Sauerstoff-Fugazitäten und den Aktivitäten der beteiligten Oxid-Komponenten beeinflusst. Für eine realistische Beschreibung der Rheologie der Erde müssen diese Einflüsse untersucht werden. Bei starker Deformation der Gesteine ändert sich ihre Textur, insbesondere, wenn es zu Dislokations-Kriechen kommt. Diese Gefügeänderung führt zu einer bevorzugten Orientierung der Mineralkörner im Gestein. Da die elastischen Eigenschaften eines Minerals in der Regel von seiner Orientierung abhängen, sind die elastischen Wellengeschwindigkeiten in einem Gestein mit Vorzugsorientierung anisotroper Minerale ebenfalls anisotrop. Ein solches anisotropes Verhalten wird in der Lithosphäre in Form der Aufspaltung von S-Wellen („shear wave splitting“) beobachtet, ein starker Hinweis auf die Fließrichtung des Erdmantels und die Verformung. Zur quantitativen Auswertung dieses wichtigen Indikators sind Experimente an polymineralischen Gesteinen der Kruste und des Mantels unter starker Verformung erforderlich.
17
18
Kontinentränder: Brennpunkte im Nutzungs- und Gefährdungspotenzial der Erde
D
ie Ränder der Kontinente sind wie keine andere Region der Erde durch ein hohes Nutzungs- und Gefährdungspotenzial für den Menschen gekennzeichnet. Aufgrund ihrer besonderen geologischen Situation zeichnen sich diese Bereiche durch reiche Rohstoffvorkommen aus. Sie sind vielfach aber auch Orte von extremen Naturereignissen, wie Erdbeben, Vulkanausbrüchen und Flutwellen. Über 90 % der globalen Erdbebenaktivität, sowie fast alle besonders gefährlichen, hochexplosiven Vulkane sind an aktive Kontinentränder gebunden. Gleichzeitig konzentrieren sich in einem 200 km breiten Streifen entlang der Küsten etwa 80 % der Weltbevölkerung. Die Kontinentränder zählen damit zu den wichtigsten Lebensund Wirtschaftsräumen, deren Bedeutung nach allen demographischen und ökonomischen Studien zukünftig sogar noch zunehmen wird. Sie sind daher weltweit in den Blickpunkt der Forschung gerückt. Kontinentränder sind vor allem wegen der hohen Prozessraten ein ideales natürliches Labor, um die grundlegenden Prozesse zu klären, die einerseits die Erde gestalten und andererseits Nutzen und Schaden für den Menschen bestimmen. Die Lösung der anstehenden Fragen erfordert den Einsatz neuartiger und substanziell verbesserter Technologien, die wiederum neue Forschungsfelder eröffnen. Die in dem vorliegenden Themenschwerpunkt gebündelten Forschungsziele setzen ein hohes Maß an Interdisziplinarität voraus, dem durch intensive nationale und internationale Kooperation Rechnung getragen wird. Um in den kommenden Jahren einen durchgreifenden Erkenntnisgewinn zur Dynamik und Entwicklung von Kontinenträndern zu erzielen, sind konzentrierte und integrierte Forschungsaktivitäten erforderlich. Die dabei gewonnenen grundlegenden Erkenntnisse sind eine essenzielle Voraussetzung für eine erfolgreiche Risiko- und nachhaltige Ressourcenforschung. Sie fördert insbesondere die Zusammenarbeit mit den Ländern der Dritten Welt und einen darauf ausgerichteten Know-how Transfer und Erfahrungsaustausch. Die zukünftigen Arbeiten sind zudem ein wichtiger Beitrag zum Meeresforschungsprogramm der Bundesregierung.
19
Themenschwerpunkt: „Kontinentränder: Brennpunkte im Nutzungsund Gefährdungspotenzial der Erde“. Förderstatus BMBF: Ab 1.1.2004 Förderung von drei Forschungsverbünden. Fördervolumen: circa 6,5 Millionen Euro für eine 3-jährige Förderphase. Förderstatus DFG: Förderung von 11 Projekten im Rahmen der europäischen (ESF) Initiative EUROMARGINS. Fördervolumen: 2,1 Millionen Euro für eine 3-jährige Förderphase.
20 Ziel: Grundlagenstudien zur Entwicklung von Kontinenträndern und Risikominderung durch Ursachenforschung von Naturkatastrophen, wie Erdbeben oder Vulkanausbrüche. Beteiligte Institutionen: Interdisziplinärer Verbund aus Universitäten und außeruniversitären Einrichtungen.
Aufbau und Entwicklung von Kontinenträndern – die zentralen Fragen
A
n Kontinenträndern grenzt junge, dünne ozeanische Kruste basaltischer Zusammensetzung an ältere, dicke kontinentale Kruste mit vergleichsweise langer und komplexer Vorgeschichte. Gehören beide zur gleichen Lithosphärenplatte, ohne aktuelle Relativbewegung, so handelt es sich um einen passiven Kontinentrand (rifted margin), der in der geologischen Vergangenheit durch Aufbrechen eines Kontinents und Bildung neuer ozeanischer Kruste zwischen den nun zwei verschiedenen Platten zugehörenden Teilen dieses Kontinents entstanden ist. Ein passiver Kontinentrand ist heute keine Plattengrenze. Im Gegensatz dazu steht der aktive Kontinentalrand (convergent margin), an dem ozeanische Lithosphäre unter kontinentale Lithosphäre subduziert wird. An einem solchen Kontinentrand spielen sich heute tektonische Bewegungen ab, womit Veränderungen in menschlichen Zeitskalen, Seismizität und aktiver Vulkanismus mit dem entsprechenden Gefährdungspotenzial verknüpft sind. Beide Typen von Kontinenträndern spielen damit für die Menschheit eine zentrale Rolle, da die an Kontinentränder gebundenen Küstenregionen bevorzugte Siedlungsräume sind und damit eine große Zahl von Menschen dem spezifischen Gefahrdungspotenzial ausgesetzt sind. Andererseits konzentrieren sich auf Kontinentränder Rohstoffe unterschiedlichster Art in ganz besonderem Maße.
Passive Kontinentränder (rifted margins) Das Aufbrechen eines Kontinents wurde ursprünglich als Folge einer progressiven Ausdünnung kontinentaler Kruste (mit oder ohne Rift-Vulkanismus) betrachtet, die zur Bildung eines neuen ozeanischen Spreizungsfensters führt oder vorher zum Stillstand kommt. Tatsächlich ist der Vorgang wegen des räumlichen und zeitlich unstetigen Fortschreitens des Aufbrechens wesentlich komplizierter. Um die Abläufe besser zu verstehen, ist es erforderlich, die Entwicklung vom komplexen ersten Zerbrechen bis zur gleichmäßigen Krustenspreizung sowohl an aktiven Spreizungszonen als auch an fossilen Rifts zu untersuchen. Darüber hinaus wird beim Standardmodell für die Entwicklung divergenter Ränder angenommen, dass die Lithosphäre nach dem Aufspalten abkühlt und allmählich absinkt. Zusätzlich zur konduktiven Abkühlung müssen aber weitere Prozesse beteiligt sein. Gegenwärtig ungeklärte Phänomene bei der frühen Entwicklung eines Randes, wie etwa Postrift-Hebung oder anomal starke Absenkung, sind mit dem einfachen konduktiven Modell nicht zu erklären. Es ist zu untersuchen, inwieweit diese Anomalien mit Änderungen in der Plattenkinematik, mit der Aktivität naher Hot Spots und/oder mit regionalen Variationen in Sedimentzufuhr und -transport gekoppelt sind. Ferner ist die Frage zu beantworten, wie sich die Vertikalbewegungen auf die Kontinenthangstabilität und die Entwicklung des Kohlenwasserstoff (KW)-Potenzials auswirken. Ein erst neuerdings erkanntes Phänomen ist der verbreitete äußerst intensive, dabei kurzlebige Vulkanismus mancher divergenter Kontinentränder mit wahrscheinlich dramatischen globalen Auswirkungen auf die Paläoumwelt. Die vulkanischen Kontinentränder zählen zu den ganz großen magmatisch-vulkanischen Provinzen der Erde, deren Entstehung mit dem plattentektonischen Paradigma bislang nicht überzeugend erklärt werden kann. Ein enger Zusammenhang zwischen einigen Hot Spots und dem Aufspalten von Kontinenten wird vermutet, doch sind die möglichen Hintergründe für das Auftreten beziehungsweise Fehlen des transienten Magmatismus nicht hinreichend untersucht. Die möglicherweise erheblichen Konsequenzen für das Kohlenwasserstoffpotenzial sind nicht bekannt. Ziele für die nächste Dekade: • Untersuchung und Modellierung einer vollständigen Riftentwicklung (vulkanischer und nichtvulkanischer Kontinentrand) vom aktiv propagierenden Riftzentrum bis zum reifen passiven Kontinentrand; auch der zeitliche Ablauf, Ausdehnung und Zusammensetzung des initialen Vulkanismus soll in erster Näherung erfasst werden; • Abbildung der Riftachse/-spitze und der gekoppelten aktiven Prozesse; Abbildung der Lithosphären-Asthenosphärengrenze über den Ozean-Kontinentübergang eines passiven Randes; • Entwicklung physikalischer Modelle der Riftpropagation und der Randentwicklung; Rekonstruktion und Vergleich von Regionen mit normaler und anomaler
21
Abb. 13: Schwerpunkte deutscher Forschungsaktivitäten an Kontinenträndern (onshore + offshore).
Absenkungs- und Sedimentationsgeschichte unter Berücksichtigung der regionalen Plattenkinematik; • Auswirkungen von transientem Vulkanismus/Magmatismus auf das Sedimentationsmilieu und die Bildung von Erzlagerstätten; Untersuchung der Auswirkung von anomalen Hebungen und Senkungen auf die Erdöl und Gashydratbildung/-stabilität.
Aktive Kontinentränder (convergent margins) Die wesentlichen Prozesse an konvergenten Kontinenträndern sind mit Fluiden verknüpft, die aus Gesteinen und Sedimenten der abtauchenden Platte freigesetzt werden. Dies gilt insbesondere für Seismizität, Magmatismus, Massen und Stofftransport und die Anreicherung zu nutzbaren Lagerstätten. Die Quelle und die Menge dieser Fluide wie auch der gesamte Massenumsatz sind jedoch bisher kaum bekannt beziehungsweise schwer zu quantifizieren. Gegenwärtig wird davon ausgegangen, dass dem Porenfluiddruck eine zentrale Steuerfunktion für Auslösung und Propagation von Erdbeben zukommt. Experimente sind daher erforderlich, um den Zusammenhang zwischen seismischen Zyklus und Fluidabgabe, Fluidmigrationswegen, Druckentwicklung, Permeabilität und Deformation im seismischen Zyklus zu klären. Hierdurch wird eine bessere Abschätzung des seismischen Risikos aufgrund besser bestimmter geologischer Randbedingungen erwartet. Zum Beispiel ist das Zerbrechen
der ozeanischen Platte an Dehnungsstörungen im Bereich der „Äußeren Schwelle“ (Outer Rise) vor dem Tiefseegraben eine bisher kaum untersuchte mögliche Region für die Wasseraufnahme in die abtauchende ozeanische Lithosphäre. Bereiche mit sehr niedrigem Wärmefluss können hiermit zu korrelieren sein. Benötigt werden daher geophysikalische Abbildungstechniken, die die Eigenschaften der subduzierenden ozeanischen Platte und deren laterale Änderungen, aber auch der Plattengrenzfläche im Detail aufzeigen. Durch Freisetzung von Fluiden in Tiefen von 100 bis 150 km wird der Magmatismus konvergenter Ränder getrieben. Typischerweise besitzen die vulkanischen Zentren einen charakteristischen Abstand von etwa 50 km voneinander. Der Grund dafür ist unbekannt. Sowohl Manteldiapirismus (jeder Vulkan liegt über einem Manteldiapir), wie lithosphärische Belastung (jeder Vulkan stört den Aufwärtsstrom einer planaren Schmelzregion unter dem magmatischen Bogen) sind als Gründe für dieses Muster vorgeschlagen worden. Darüber hinaus müssen nach jüngeren Vorstellungen Verteilung und Fließrate von Fluiden aus der subduzierten Platte diesen Vorgang steuern. Beide Steuergrößen sind jedoch unbekannt. Mit der Erforschung der Fluide würde ein deutlich verbessertes Verständnis des Schmelzflusses und der Steuerungsprozesse für den Bogenvulkanismus erzielt werden. Neben aktivem Vulkanismus und Erdbebentätigkeit sind konvergente Kontinentränder durch ausgeprägte Stoffaustauschprozesse charakterisiert, verbunden mit großskaligen tektonischen Veränderungen (Gebirgs- und Beckenbildung, Zuwachs und Vernichtung von kontinentaler Lithosphäre), die auch zur Bildung von bedeutenden mineralischen Lagerstätten
führen können. Die Steuerfaktoren für den Materialtransfer an den verschiedenen Typen von konvergenten Kontinenträndern (akkretionäre, nichtakkretionäre und subduktionserosive Ränder) sowie die damit assoziierten Prozesse (Vulkanismus, Mineralisationen, Fluid-Haushalt, Stoffflüsse, Seismizitätsverteilung) und ihre wechselseitige Kopplung sind unzureichend bekannt. Auch die tektonischen Randbedingungen für die Anlage von Forearc- und Backarc-Becken mit Ausbildung von Kohlenwasserstoff-Lagerstätten sind wenig verstanden.
22
Ziele für die nächste Dekade: • Untersuchung der strukturellen Eigenschaften von konvergenten Kontinenträndern und ihrer zeitlichen Änderungen, die mit seismischen und aseismischen Bewegungen korrelieren (hochauflösendes Abbild der Geometrie und der petrophysikalischen Eigenschaften in 3-D und ihrer zeitlichen Variabilität; Analyse des Seismizitätsmusters und der Fluidfreisetzung im Forearc; Ermittlung der rezenten und aktiven Deformationsgeschichte). • Untersuchung der lithosphärischen und asthenosphärischen Struktur und Eigenschaften unter benachbarten aktiven Vulkanen (hochauflösende seismische und elektromagnetische 3-D-Abbilder der Struktur; Rekonstruktion der rezenten magmatischen Entwicklung eines Vulkansegments, sowie Erfassung der Natur der Kruste der vorgelagerten subduzierenden Platte; Ermittlung der rezenten Deformationsgeschichte dieses Bogensegments). • Identifikation der Materialflüsse und ihrer Steuerfaktoren an konvergenten Plattenrändern (hochaufgelöste Abbilder der Prozesse und Eigenschaften der lithosphärischen Einheiten an der Plattengrenzfläche; Ermittlung von rezenter Deformation und Kinematik, sowie von Seismizität und Materialtransfer, sowie Bildung von Erzlagerstätten; experimentelle Erforschung der mechanischen Steuerfaktoren). • Untersuchung eines repräsentativen Outer Rise zur Ermittlung der Hydratisierungsprozesse und der rheologischen Parameter der Lithosphäre (hochauflösendes Abbild der seismischen Geschwindigkeiten in 3-D mit rezenter Seismizität und ihre Korrelation mit größeren Störungen; Mikroseismizität, Wärmefluss und bodennahe Schwere-, magnetische und elektrische Struktur sowie deren Beziehung zu Störungen; Analyse von Gesteinen, Fluidaustritten und Erzpräzipitaten). • Entwicklung von Bilanzierungs- und Modellierungsverfahren des Material und Energietransfers.
haben die Kontinentränder ein hohes Rohstoffpotenzial: Während Phasen niedriger Meeresspiegel (Eiszeiten) bildeten sich auf den Schelfen Mineralseifen (Gold, Platin, Diamanten, Chromit, Titanminerale). Gigantische Akkumulationen von Öl und Gas werden in charakteristischen Speichergesteinen der tieferen Kontinentalränder (Karbonate und Sandsteine) vermutet. Die ökonomische Relevanz der Kontinentränder ist gegenwärtig Anlass für die meisten Küstenstaaten der Welt, ihre Exklusive Ökonomische Zone (EEZ) von derzeit 200 Seemeilen auf bis zu 350 Seemeilen vor die Küstenlinie auszudehnen. Sedimentserien des Schelfs und tieferer Stockwerke der Kontinentränder sind das Bindeglied zwischen Kontinent und Ozean. Beide archivieren detailliert die Änderungen im Stofftransfer vom Land in den Ozean und aus der Biosphäre in die Geosphäre. Diese Transfers sind jedoch wahrscheinlich keine Einbahnstraßen: In jüngster Zeit wird zunehmend die Rolle der mächtigen Sedimentpakete auf den Schelfen und den oberen Kontinentalabhängen (im Bereich der ozeanischen Sauerstoffminimumzonen) für die Nährstoffbudgets im Ozean diskutiert. Gasreiche Sedimente auf Schelfbereichen beeinflussen das Milieu unter Wasser, gefährden große Küsten-Ökosysteme und den unmittelbaren Küstenstreifen. Ein deutliches Wissensdefizit besteht bei Sedimenten der tieferen Hangbereiche, die sich aus Material kontinentaler Verwitterung und mariner biologischer Produktion zusammensetzen. Forschungsbedarf besteht bei der detaillierten räumlichen und zeitlichen Erfassung von Turbiditsystemen, der Erfassung von Auslösern für Turbiditereignissen (zum Beispiel seismische Aktivität, Sedimenteintrag, Änderungen des Meeresspiegels), der Klärung ihres Stoffbestands sowie ihr Beitrag zum KWHaushalt der Kontinentränder. Auch die Karbonatproduktion an Kontinenthängen ist bisher noch wenig erforscht, ihre globale geobiologische Signifikanz kaum bekannt. Tiefwasser-Karbonathügel reagieren auf Veränderungen der ozeanischen Zirkulation und abrupte Änderungen des Sedimentationsgeschehens. Ein Zusammenhang zwischen Gashydratbildung und Entstehung der Karbonathügel wird diskutiert. Die Untersuchung der Umweltparameter tiefer Schelfgebiete, Rampen und Kontinenthänge wird erstmals brauchbare Modelle für die Tiefwasser-Explorationsgeologie bereitstellen, eine Datenquelle für die Variabilität und Dynamik der Zwischenwasserzirkulation erschließen und das Potenzial für eine bislang ungenutzte biologische Rohstoffquelle nutzbar machen.
Biologische Produktion und Stoffumsatz an Kontinenträndern Über 50 % der globalen biologischen Produktion im Ozean findet entlang der Kontinentränder statt, konzentriert vor allem auf die Schelfe. Die Hauptsenken für organischen Kohlenstoff sind die angrenzenden Kontinentalabhänge, wo sich heutige Analoge der Muttergesteine für Erdöl- und Erdgaslagerstätten bilden. Gleichzeitig
Ziele für die nächste Dekade: • Bilanzierung der Sedimentation und Untersuchung der Steuerungsmechanismen für Sedimentations- und Erosionsprozesse an Kontinenträndern (Sedimentzusammensetzung, Sedimentationsraten, Paläozeanographische Proxies, Altersbestimmung); • Bilanzierung der Rolle von Kontinenträndern in den Nährstoffzyklen (C, N, P und Si) des Ozeans (Nährstoffflüsse in das und aus dem Sediment, die Rolle der Sauerstoffminimumzonen; Einflüsse von Veränderun-
gen des Meeresspiegels); • Untersuchung von Austauschprozessen zwischen Hydrosphäre, Geosphäre, Biosphäre und Kryosphäre an Kontinenthängen durch Langzeitbeobachtungen (4-DVermessung von Sedimentkörpern, Signalbildung, Wärmefluss-, Permeabilitäts-Messungen, chemische Veränderungen an Fluid-Austritten, die Rolle und Dynamik von Gasakkumulationen).
Geo-Risiko und Ressourcenforschung Kontinenträndern
an
Die zu erwartenden Ergebnisse innerhalb dieses Themenschwerpunktes sollen gesellschafts- und wirtschaftsrelevante Beiträge liefern: (1) zur Minderung des Risikos von Erdbeben, Tsunamis und Vulkanausbrüchen durch Verständnis der Steuerungsprozesse, darauf begründet Beratung der zuständigen Regierungsstellen sowie Unterstützung bei der Realisierung von Überwachungs-, Frühwarn- und Schutzstrategien; (2) zur Ressourcenplanung/-steuerung durch Verstehen der Ressourcenbildungsprozesse, Entwicklung neuer Aufsuchungskonzepte und entsprechende Beratung von Industrie und Regierungsstellen.
Erdbeben und Tsunamis Weltweit konzentrieren sich die großen Schadenbeben auf die konvergenten Ränder der Lithosphärenplatten. So waren die 10 stärksten Erdbeben zwischen 1990 und 2000 Subduktionsbeben mit Magnituden >8. Allein im Jahr 1999 starben dabei über 20.000 Menschen im Zusammenhang mit Erdbeben in Kolumbien, Mexiko, Türkei, Griechenland und Taiwan. Nach Angaben der Münchener Rück müssen allein die durch Erdbeben in Taiwan und der Türkei im Jahr 1999 ausgelösten ökonomischen Verluste auf circa 26 Milliarden US$ beziffert werden. Selbst wenn solche starken Beben sich in großer Tiefe ereignen, können sie noch erhebliche Flutwellen (Tsunamis) auslösen, die verheerende Überschwemmungen der Küstenbereiche zur Folge haben. Trotz erheblicher Fortschritte, die in den vergangenen circa 25 Jahren zum Beispiel in der Erforschung der Herdprozesse erzielt wurden, bleiben wesentliche Grundlagen des Erdbebendeformationsprozesses bis heute unverstanden, wie nicht zuletzt das immer noch ungelöste Problem der kurzfristigen Erdbebenvorhersage zeigt. Die relevanten mechanischen, petrophysikalischen und petrologisch-chemischen Prozesse in der Lithosphäre und Asthenosphäre sind in ihrer Wirkung auf den Erdbebendeformationsprozess eng miteinander verknüpft und können nur durch einen interdisziplinären Forschungsansatz erfolgreich untersucht werden. Geophysikalische und geodätische Techniken werden gegenwärtig entwickelt, um die Auslösungs- und Herdprozesse von Beben besser abbilden zu können und ihr Potenzial zur Generierung von Tsunamis besser abschätzen zu können. Insbesondere die modernen Methoden der Sa-
tellitengeodäsie und der GPS-Techniken liefern neue Einsichten. GPS-Techniken, die wegen ihrer Landgebundenheit nur einen Teil der seismogenen Zone beobachten können, zeigen, dass der Erdbebenzyklus zeitlich und räumlich variabel innerhalb desselben Bruchsegments ist. Das Verständnis der Bruchmechanik aus geophysikalischen Daten, Laborexperimenten und Modellierungen unter Einbeziehung geodätischer Messungen wird der Schlüssel für die Weiterentwicklung von Vorhersagetechnologien sein. Obwohl Tsunamis im Vergleich zu Erdbeben relativ selten auftreten, können einzelne Ereignisse katastrophale Ausmaße erreichen. So forderte die 1998 vor der N-Küste von Papua-Neuguinea durch ein Seebeben ausgelöste Flutwelle über 2.100 Menschenleben und zerstörte einen erheblichen Teil des Küstenstreifens. Sogenannte „langsame“ Beben, die nur geringe Erschütterung erzeugen und wahrscheinlich nur mit GPS-Methoden beobachtbar sind, sind ebenfalls in neuerer Zeit als wichtige Auslöser von Tsunamis erkannt worden. Zusätzlich zu den durch Erdbeben ausgelösten Tsunamis, sind große submarine Hanginstabilitäten und Rutschungen eines Kontinenthangs im Hinblick auf die Auslösung von Tsunamis eine Naturgefahr erster Ordnung, deren Bedeutung erst kürzlich erkannt wurde (große prähistorische Rutschungen vor Costa Rica und Nicaragua mit modellierten Flutwellen von 16-27 m Höhe). Es besteht die wohlbegründete Aussicht, aus der Seismik und aus der Satellitenbathymetrie submarine Gefahrenzonen eingrenzen und die zugehörigen Prozesse erfassen zu können, wie zum Beispiel die Destabilisierung von Kontinenthangzonen und die damit verbundene Risikoerhöhung für Tsunamis durch das Eintauchen von Tiefseekuppen in den Subduktionsbereich. Das Potenzial für große submarine Hangrutschungen und Tsunamibildung ist kürzlich auch für den atlantischen Kontinentrand vor den USA gezeigt worden; historische tsunamigene Rutschungen sind vor dem norwegischen Rand, fossile Tsunamiablagerungen in Europa an den Küsten Schottlands, Islands und Norwegens entdeckt worden. Ziele für die nächste Dekade: • Spannungsaufbau, -umlagerung und -diffusion, seismische und aseismische Deformation an Subduktionszonen, ihre Steuerung, Vermessung und Modellierung; • Identifikation von messbaren Prozessen und Eigenschaften im Bereich des Auftretens von Subduktionsbeben und Verbesserungen in der Abschätzung der Risiken als Grundlage für die Entwicklung von Monitoring und Frühwarntechnologien; • Identifizierung der Steuerungsprozesse und Abschätzung der potenziellen Risiken von großen submarinen Rutschungen (Identifikation und Abbildung von potenziell instabilen Hangbereichen und kritischen Lokationen für Monitoring; Verbesserung des Verständnisses der Rutschmechanismen; Entwicklung von Technologie für das Ozeanbodenmonitoring).
23
24
Hochrisikovulkane Mit der Subduktion von Lithosphärenplatten an aktiven Kontinenträndern ist ein intensiver Vulkanismus verknüpft. Explosive Vulkaneruptionen, die häufig mit großen Schlammströmen und Hangrutschen verbunden sind, gehören zu den Naturkatastrophen mit großer Vernichtungskraft. Neben der Bedrohung der näheren Umgebung von Vulkanen beeinflussen katastrophale Gasund Partikelemissionen das globale Klima zumindest für mittelfristige Zeiträume. Mindestens 400 der weltweit mehr als 500 subaerischen Vulkane, die in historischer Zeit aktiv waren, sind an Subduktionszonen gebunden. Von den Subduktionszonen-Vulkanen rund um den Pazifik, dem sogenannten „Ring of Fire“, sind die meisten heute aktiv. Durchschnittlich jedes Jahr bricht mindestens einer von ihnen aus. Spätestens nach dem Ausbruch des kolumbianischen Vulkans Nevado de Ruiz im November 1985, bei dem mehr als 25.000 Menschen getötet wurden, stand in der Wissenschaft nicht mehr nur das Studium der Eruptionsprozesse im Vordergrund, sondern zunehmend auch die Entwicklung effektiverer Überwachungsmethoden zur Ausbruchsvorhersage und die Optimierung von Alarmierungs- und Evakuierungsvorschriften. Am Beispiel der Ausbrüche des Mount Pinatubo auf den Philippinen zwischen 1991 und 1995 konnte gezeigt werden, dass diese Maßnahmen sehr erfolgreich hohe Verluste an Menschenleben verhindern konnten. Obwohl genaue Zahlen zu wirtschaftlichen Schäden und zum Verlust an Menschenleben als Folge von Vulkaneruptionen schwer anzugeben sind, gilt auch hier, dass immer mehr Menschen in Zukunft im Einzugsgebiet von sogenannten Hochrisiko-Vulkanen an Kontinenträndern leben werden. Es besteht noch erheblicher Forschungsbedarf darin, die prozessrelevanten Parameter zu identifizieren und sie für effiziente Frühwarnsysteme zu verwenden. Die Erfolgsaussichten werden durch die bisherigen Ergebnisse, die von deutschen Gruppen an Vulkanen in Kolumbien beziehungsweise in Indonesien erarbeitet worden sind, als sehr positiv eingeschätzt. Danach besteht möglicherweise eine Korrelation zwischen dem vulkanischen Aktivitätszustand auf der einen Seite und den geophysikalischen und gaschemischen Parametern auf der anderen Seite. Dieser Zusammenhang muss intensiver untersucht werden, um ihn gesichert für ein zuverlässiges Monitoring und geeignete Frühwarnsysteme einsetzen zu können. Ziele für die nächste Dekade: • Identifikation der physikalischen und chemische Steuerprozesse und Signale, die Grundlage für Monitoringtechnologien sein können; • Verbesserung der geophysikalischen theoretischen Grundlagen für eine exaktere Ausbruchsvorhersage auf der Basis probabilistischer Modelle; • Weiterentwicklung und verbreiteter Einsatz geochemischer Monitoring-Verfahren (inklusiv OnIine-Temperaturmessungen) um eine den geophysikalischen Methoden gleichwertigere Datendichte zu erreichen; • Entwicklung und Einsatz einfacher und preiswerter
Monitoring-Messgeräte, die von den lokalen Überwachungsbehörden selbständig eingesetzt und betrieben werden können; • Remote sensing von Satellitenplattformen aus (Oberflächentemperaturen, Gasemanationen und Partikelwolken).
Küstenzonen Zu den Kontinenträndern gehören die Küstenzonen als hochdynamische terrestrisch/marine Übergangszonen. Struktur, Genese und rezent wirkende Prozesse bestimmen zum einen die Ressourcen dieser Zone, und damit die Lebensgrundlage der dort lebenden Menschen, zum anderen die Gefährdung durch Naturkatastrophen. Insbesondere Sturmfluten und Tsunamis als schnelle Ereignisse oder Meeresspiegeländerungen und vertikale Landbewegungen als langsame Ereignisse haben hier wegen der zunehmenden Nutzung eine ebenfalls zunehmende Bedeutung. Die quantitative Bewertung von Katastrophenrisiken, die Entwicklung von Strategien für Vorsorgemaßnahmen und von Warnsystemen sowie der naturnahe Schutz der Küsten vor Abrasion und Überflutungen (zum Beispiel Bemessung von Deichhöhen) wird ebenso zu den Aufgaben der Geowissenschaftler im kommenden Jahrzehnt gehören, wie die Abschätzung der sedimentologischen und ökologischen Folgen der Gewinnung mineralischer Rohstoffe und der Nutzung mariner Räume als Deponien. Hier müssen wie auch bei der Planung und Ausführung nachhaltig umweltverträglicher Bauwerke (Tunnel, Brücken, Förderplattformen, Pipelines, Windkraftwerke, Hafenbau, Fahrrinnenvertiefung und -unterhaltung) neue Formen der Zusammenarbeit von Geowissenschaftlern mit Ozeanographen, Ökologen und Ingenieuren entwickelt werden. Gemeinsam ist in interdisziplinären Forschungsprojekten einerseits ein vertieftes Verständnis der sich auf verschiedenen Zeitskalen überlagernden endogenen und exogenen Prozessen und anthropogenen Aktivitäten zu erarbeiten. Andererseits müssen neue Technologien für deren Messung, Modellierung, Prognose und gegebenenfalls Prozesssteuerung entwickelt werden. Für die internationale Kooperation bietet dabei zum Beispiel das Kernprojekt LOICZ (Land Ocean Interaction in the Coastal Zone) des IGBP einen inhaltlichen und organisatorischen Rahmen. Ziele für die nächste Dekade: • Weiterentwicklung von Strategien für Beprobung, Beobachtung und Messung von küstennahem Materialumsatz (Monitoring), Quantifizierung von Stoffflüssen, Monitoring von Meeresspiegeländerungen und Vertikalbewegungen der Landoberfläche; • Abschätzungen von Ereignis- (Katastrophen-) wahrscheinlichkeiten mittels numerischer Modellierung von Transportprozessen. Kopplung von atmosphärischen, hydrodynamischen, biologischen, chemischen und sedimentologischen Modellkomponenten und ihre Parametrisierung für die morphodynamische Modellierung;
• Erfassung und Aufbereitung von Prozess- und Modelldaten in 4-D-(Raum/Zeit) GeoInformations-Systemen; • Ableitung von Szenarien der Effekte von anthropogenen Eingriffen in das natürliche System des Küstenraums als Entscheidungshilfe für die Konzipierung und Ausführung von Vorsorge und Schutzkonzepten.
Kohlenwasserstoffe Trotz vieler Bemühungen, den Anteil fossiler Energieträger zu reduzieren, ist sicher, dass diese, insbesondere Erdöl und Erdgas, noch weit in unser Jahrtausend hinein die Weltwirtschaft wesentlich mittragen werden. Die Exploration stößt heute weltweit in deutlich größere Wassertiefen vor, speziell an passiven Kontinenthängen (zum Beispiel Campos-Feld/Brasilien: 400-2.000 m; Angola: 400-1.500 m; Golf von Mexiko: 400-2.000 m). Das Kohlenwasserstoffpotenzial der Kontinentränder in mehr als 2.000 m Wassertiefe ist weitgehend ungeklärt. Es ist zu erwarten, dass Erdöl und Erdgas aus den Tiefwasserbereichen der Kontinentränder in Zukunft weltweit einen erheblichen Anteil des Energiebedarfs decken werden. Um dafür erfolgreiche Explorations- und Exploitationsstrategien zu entwickeln, bedarf es noch grundlegender Untersuchungen zu Prozessen und Steuerungsfaktoren der Kohlenwasserstoffbildung und -akkumulation in diesen neuen Zielgebieten. Wesentliche Forschungsziele in Bezug auf die Kohlenwasserstoffgenese, -migration und -lagerstättenbildung sind initiale Riftbecken und Tiefwasser-Turbiditsysteme. Die Höffigkeit der initialen Riftbecken, die das Aufbrechen der Kontinente begleitet haben, wird schon jetzt hoch eingeschätzt. Hier sind Erdöl-Muttergesteine, -Speichergesteine und Salzstrukturen zu erwarten. Dort, wo die Riftbecken durch magmatischvulkanische Gesteinseinheiten überlagert sind, bilden sie sich wegen derer hohen Impedanzkontraste bei der Erkundung mit konventionellen Verfahren schlecht ab. Die Untersuchungen im Hinblick auf Entstehung, Entwicklung, Geometrie und Kohlenwasserstoff-genetische Eigenschaften der Riftbecken unter diesen magmatisch-vulkanischen Serien sind eine wesentliche Voraussetzung zur Modellierung der thermischen Reife und Subsidenzgeschichte sowie der anschließenden Abschätzung des Kohlenwasserstoff-Potenzials. Tiefseesedimentfächer an Kontinenthängen ziehen zunehmend das Interesse der Industrie als attraktive Explorationsziele auf sich. Dennoch ist die Bedeutung distaler Tiefwasserturbidite, ihrer Sedimentationsprozesse, geometrischen Strukturen, Mächtigkeiten und Speichereigenschaften weitgehend unbekannt. Insbesondere ihre Entstehungsbedingungen, Materialzusammensetzungen und ihre Verbindung mit alten Flussdeltasystemen an den Kontinenträndern sind noch weitestgehend unerforscht. Hochauflösende moderne und weiter zu entwickelnde Erkundungstechnologien sind notwendig, um die erforderlichen Beckeneigenschaften detailliert abzubilden. Die zunehmende Bedeutung der Tiefwassergebiete wird auch dadurch offenbar, dass nach der 1994 in Kraft
getretenen „United Nations Convention on the Law of the Sea“ Küstenländer die Möglichkeit besitzen, unter bestimmten, in der UN-Konvention definierten geomorphologischen und geologischen Bedingungen ihre auf 200 Seemeilen begrenzte Wirtschaftszone bis auf 350 Seemeilen und damit in der Regel bis in den Tiefwasserbereich auszudehnen. Mit den Ergebnissen des Themenschwerpunktes werden wir über umfangreiche Expertise verfügen, die der wirtschaftlichen Nutzung dieser Gebiete zugute kommen wird. Ziele für die nächste Dekade: • Prozessverständnis der Ablagerung und Reifung von Muttergesteinen, der Bildung und Migration von Kohlenwasserstoffen, sowie der Lagerstättendynamik im Tiefwasserbereich von Kontinenträndern; • Dechiffrierung der Sedimentationsgeschichte, der Tiefwassersedimentationsprozesse und der Paläoozeanographie; Identifikation von Petroleumsystemen und Entwicklung neuer Konzeptionen für den Tiefwasserbereich; • Bewertung des Tiefwasser-KW-Potenzials von geodynamisch unterschiedlich geprägten divergenten Kontinenträndern auf der Basis vorhandener Datensätze und neu zu erarbeitender offshore/onshore geophysikalischer, geologischer und geochemischer Datensätze auf konjugierenden Traversen sowie auf der Basis neu entwickelter Prozessverständnisse; • Entwicklung geeigneter Explorationsstrategien.
Mineralische Rohstoffe Infolge der dynamischen Entwicklung und den damit verbundenen hohen Massentransfer-Raten haben konvergente Kontinentränder herausragende Bedeutung für die Bildung von Lagerstätten mineralischer Rohstoffe. So stammen zum Beispiel über 60 % der jährlichen Weltproduktion von Kupfer, 15 % der von Gold, und bedeutende Mengen von Silber, Blei, Zink, Zinn, Wolfram und Molybdän aus Lagerstätten, deren Entstehung in direktem Zusammenhang mit Prozessen im Subduktionsbereich aktiver Kontinentränder steht. An Kontinenträndern vom akkretionären Typ können zusätzlich allochthone Buntmetall-, Chromit-, Nickel- und Platinlagerstätten auftreten, die während der Neubildung ozeanischer Kruste entstanden sind und zusammen mit dem sedimentären Akkretionskomplex an das kontinentale Festland angelagert wurden. Auch passive Kontinentränder, die unter anderem durch das Auftreten vulkano-sedimentärer Becken charakterisiert sind, besitzen ein hervorragendes Potenzial für Erzlagerstätten. In diesem Umfeld treten neben Bändereisenerzen, Schwermineralseifen, Phosphat und Manganerzlagerstätten auch wirtschaftliche Vorkommen von Kupfer, Blei und Zink sowie Bariumsulfat auf. Konzeptionelle Forschungsansätze verstehen die lagerstättenbildende Stofftrennung als das Ergebnis einer von der Quelle („source and motor“) über Transportpfade (Gradienten, Stoffflüsse, Strukturen) bis zum Absatzort („sink“) reichenden Wirkungskette. Zahlreiche
25
Steuerfaktoren für die Bildung mineralischer Lagerstätten (wie zum Beispiel die Eigenschaften und Zusammensetzung der Kruste; Quelle, Wege, Mengen und Zusammensetzung sowie Zustand der Fluide; die Rolle des Magmatismus; Position im plattentektonischen System; et cetera) sind in unterschiedlicher Form qualitativ bekannt, in ihren quantitativen Einflüssen und insbesondere in ihrer Wechselwirkung aber nicht hinreichend verstanden. Die Lösung dieser Fragen ist jedoch Voraussetzung für die Bewertung des Lagerstättenpotenzials verschiedener Regionen und die Entwicklung moderner Strategien der Aufsuchung.
26
Ziele für die nächste Dekade: • Einsatz und Weiterentwicklung innovativer geotechnologischer Verfahren zur qualitativen und quantitativen sowie zur räumlichen und zeitlichen Erfassung von lagerstättenbildenden Prozessen und deren Korrelation mit der geodynamischen Entwicklung von aktiven und passiven Kontinenträndern; • Schaffung von Grundlagen für die Ermittlung und Bewertung des mineralischen Rohstoff beziehungsweise Lagerstättenpotenzials ausgewählter Regionen und Definition neuer Zielgebiete, Strategien, Konzepte und Methoden für die Lagerstättensuche.
Erkundungstechnologien
Innovative Methoden und Verbesserung der Auflösung bei etablierten Erkundungsverfahren sind Voraussetzung dafür, dass die oben beschriebenen Ziele erreicht werden. Dies gilt für die 3-D-Erkundung von Strukturen, die sich in menschlichen Zeiträumen nicht verändern, und insbesondere für die in den Geowissenschaften gerade erst möglich werdende Analyse von in menschlichen Zeitskalen veränderlichen Zuständen, die ein hochauflösendes 4-D-Monitoring erforderlich machen. Dazu müssen an Kontinenträndern marine und nicht-marine Technologien eingesetzt werden, mit besonderen Herausforderungen beim Einsatz im LandSee-Übergangsbereich. Das Erreichen der Ziele erfordert insbesondere den Einsatz und die Weiterentwicklung folgender Mess- und Beprobungssysteme: • 3-D-reflexionsseismische Systeme, tiefgeschleppte geophysikalische Systeme und Vertikal-Streamer sowie Ozeanbodenkabel zur hochauflösenden Erfassung tiefer Strukturen und von Material-Eigenschaften • Marine und landgestützte Langzeit-Observatorien mit Telemetrie für Dauerbeobachtungen beziehungsweise 4-D-Erfassung der Seismizität, der physikalischen, chemischen und geobiologischen Veränderungen in und auf der Lithosphäre • Elektromagnetische Abbildungstechniken in Gebieten extrem starker Leitfähigkeitskontraste • Aktive und passive Tomographie-Verfahren inklusive „Array“-Techniken zur hohen räumlichen Auflösung lithosphärischer und asthenosphärischer Strukturen
• Abbildungssysteme für hochgenaue bathymetrische Vermessung • Marine und landgestützte Beprobungstechniken inklusive Bohrtechniken zur Erfassung des stofflichen und physikalischen Aufbaus des Untergrundes und Verifikation von Modellen • Ferngesteuerte und autonome Unterwasser-Fahrzeuge zur Erfassung von chemischen, physikalischen und geobiologischen Daten in der Wassersäule und vom Meeresboden sowie zur Probennahme und visuellen Inspektion • Fernerkundungs-Methoden zur Erfassung von Deformationen der Erdoberfläche, zur Identifikation von Materialverlagerungen im Küstenbereich, zur Kartierung von stofflichen und physikalischen Eigenschaften bis hin zur Mineralidentifikation • Experimenttechniken für die Ermittlung von petrophysikalischen Gesteinseigenschaften unter den transienten Bedingungen aktiver Systeme und Entwicklung petrotomographischer Verfahren für Interpretationsund Monitoringtechnologien Es ergibt sich ein Katalog der zu entwickelnden oder den Ansprüchen entsprechend zu ertüchtigenden Mess-, Beprobungs- und Auswerteverfahren. Erforderlich sind geowissenschaftliche Gerätepools mit technologischen Neuentwicklungen und marine Forschungsplattformen. Zum Teil kann dabei auf Systeme zurückgegriffen werden, die bei der Industrie, an Forschungsinstituten oder durch die Zusammenarbeit mit anderen Forschungsprogrammen verfügbar sind (zum Beispiel ODP/IODP und ICDP). Innerhalb des Themenschwerpunktes „Kontinentränder“ sind Entwicklungsarbeiten zu leisten, insbesondere auf den Gebieten hochauflösender räumlicher Abbildungen von Strukturen und Materialeigenschaften sowie ihrer zeitlichen Veränderungen. Besondere Bedeutung kommt dabei der Entwicklung von Verfahren zu, die den Informationsgewinn bei Akquisition und Bearbeitung steigern, die belastbare Zusammenhänge zwischen unterschiedlichen gesteinsbezogenen Parametern herstellen und eine Simultanmodellierung (Joint Inversion) ermöglichen, die eine Echtzeitauswertung großer Datenmengen sowie die abgesicherte dynamische Modellierung unterschiedlicher Prozesse erlauben.
Zielregionen (I. Phase)
Die zur Lösung der aufgeworfenen Fragen geeigneten Zielgebiete (siehe Abb. 13) integrieren auch laufende und geplante nationale Aktivitäten, zum Beispiel den Einsatz der deutschen Forschungsschiffe, Strategien des Ocean Drilling Programme (ODP) und des International Continental Drilling Programme (ICDP). Für die Definition der Schlüsselgebiete (key areas und key sites) gelten dabei insbesondere folgende Bedingungen: - Charakter eines Modellsystems - Hohe Relevanz für Gefährdungs- oder Rohstofffragen - Breit angelegter integrierter geowissenschaftlicher
Forschungsverbund - Integration von marinen und landgebundenen Forschungsarbeiten - Regionale Bündelung der Aktivitäten deutscher Forschungseinrichtungen Für die erste Phase der Förderung kommen nach diesen Kriterien zunächst die unten aufgeführten Regionen in Betracht. Gleichzeitig ist einhergehend mit der Weiterentwicklung der Fragestellungen das Potenzial weiterer Regionen zu evaluieren und unabhängig von der folgenden Auflistung auf die Identifikation spezifischer Zielobjekte hinzuarbeiten. Hierzu zählen zum Beispiel das Rote Meer und seine Verlängerung im Golf von Aden als Typvertreter für ein initiales, heute aktives Riftsystem in dem in der Vergangenheit bereits zahlreiche deutsche Forschungsgruppen und die Industrie aktiv waren sowie der Südostindik mit ganz besonders stark ausgeprägten Phänomenen eines initialen riftbegleitenden Magmatismus.
Schlüsselregionen: Aktive Kontinentränder (convergent margins )
Süd- und Mittelamerika Der Westrand Mittel- und Südamerikas, traditionell durch starke deutsche Aktivität geprägt, ist als Modellsystem für die Prozesse an einem konvergenten Kontinentrand ausgewiesen. Dieser Kontinentrand bietet bei einer Länge von über 7.000 km eine breite Variabilität der Randbedingungen bei ausreichender Übersichtlichkeit. Die Voraussetzungen zum Studium des tektonischen Materialflusses, der Neotektonik, der Geomorphologie, der Bildung von Mineral-Lagerstätten, des Gefährdungspotenzials durch Erdbeben (Valdivia 1960 war das weltweit stärkste registrierte Beben), Tsunamis und Vulkane sind daher sehr günstig. Der südamerikanische Kontinentrand stellt wegen seiner Variabilität und der hohen Prozessgeschwindigkeiten ein natürliches Labor von globaler Relevanz dar. Mehrere BMBF-geförderte geophysikalische Projekte (PACOMAR, PAGANINI, CONDOR, CINCA, ANCORP, GEOPECO), satellitengestützte und neotektonische Monitoring-Experimente (SAGA), DFG-geförderte Sonderforschungsbereiche sowie eine große Zahl weiterer nationaler Projekte sind beziehungsweise waren auf diesen Raum konzentriert. Indonesien Der indonesische Kontinentrand ist durch die Ausbildung von Forearc und Backarc-Becken mit mächtiger Sedimentanhäufung geprägt sowie durch unterschiedliche Schiefe der Subduktion, resultierend in großen Seitenverschiebungen, wie der Sumatra-Störungszone. Der Sunda-Banda-Bogen gilt als klassischer Modellfall für die Akkretion von Sedimenten. Im backarc-Beckensystem werden Kohlenwasserstoffe exploriert und exploitiert. Dazwischen liegt der vulkanische Bogen mit meh-
reren Hochrisiko Vulkanen in dicht besiedelten Regionen, deren Aktivitätsmerkmale zur Einrichtung methodisch und technisch noch zu konzipierender Frühwarnsysteme zu dechiffrieren sind. So liegt der Krakatau als hochgefährlicher Vulkan direkt vor Java, der am dichtesten besiedelten Region Indonesiens. In dem inneren Inselbogen dieses Kontinentalrandsystems existieren auch wichtige Bunt- und Edelmetall-Lagerstätten; im östlichen Bereich (Banda-Arc) werden submarine aktive Hydrothermalfelder vermutet. Mehrere DFG- und BMBF-geförderte Projekte (zum Beispiel MERAPI-Projekt, GEODYSSEA-Satellitenprojekt, GIGICS, GINCO, und anderen) laufen, beziehungsweise liefen, im indonesischen Raum. Östlicher Mittelmeerraum Der östliche Mittelmeerraum ist Prototyp eines extrem gegliederten und tektonisch mobilen aktiven Kontinentrands, mit rascher Krustendehnung im forearc wie im backarc, kontrolliert durch das Zurückrollen der Subduktionszone und durch beginnende Kontinent-Kontinent-Kollision. Der mechanische Zustand dieses Systems muss besser verstanden werden. Beispielsweise hat ein Erdbeben am 20. Juli 365 nach Christus einen Tsunami ausgelöst, der die Küsten von Alexandria (Ägypten) bis Syrakus (Sizilien) verwüstet und eine ungeheure Zahl von Opfern gefordert hat. Ein solches Ereignis hätte in den heute touristisch extrem stark genutzten Küstenregionen verheerende Folgen. Auch die aktiven Vulkane Santorin (um 3500 AD eine der größten historischen Eruptionen weltweit) und Nisyros bergen ein hohes Risiko. Ein Bohrprojekt im ICDP ist angelaufen, ein weiteres als Komponente einer ODP/ICDP Traverse in Vorbereitung, zahlreiche weitere, vor allem DFGgeförderte Projekte, konzentrieren sich auf diesen Raum, mit starker Konzentration der Ressourcen im europäischen Verbund.
Schlüsselregionen: Passive Kontinentränder (rifted margins)
Südatlantik Die konjugierten Kontinentränder des Südatlantiks umfassen einen großen Teil des Struktur- und Sedimentinventars, das passive Ränder auszeichnet. Deutsche Gruppen aus verschiedenen universitären und außeruniversitären Einrichtungen und ein DFG-Sonderforschungsbereich haben hier schon umfangreiche Arbeiten durchgeführt, deren Thematik vom mesozoischen Zerfall Gondwanas bis zur aktuellen Klimaforschung reicht. Der Nordrand des Falklandplateaus und der afrikanische Kontinentrand von der Elfenbeinküste bis zum Niger-Delta stellen gescherte Kontinentränder dar. Dazwischen liegt ein klassischer passiver Kontinentrand mit ausgeprägtem initialem Vulkanismus auf beiden Seiten des Südatlantiks, dessen Sedimentinventare und sedi-
27
28
mentbildende Prozesse aufgrund hydrographischer und biologischer Prozesse deutliche Unterschiede aufweisen. Unmittelbar nördlich vom Falklandplateau und am konjugierten Kontinentrand auf der afrikanischen Seite sowie ebenso im nördlichen Bereich wird zudem kein initialer Vulkanismus beobachtet. Damit bietet der Südatlantik die Chance, die vulkanische und die nicht-vulkanische Form von Kontinenträndern, Prozesse organischreicher und organischarmer Sedimentation sowie mehrere Übergänge zwischen ihnen zu untersuchen. Dabei müssen der nahe Tristan-da-Cunha-Hotspot und das in der Anfangsphase nach Norden propagierende Aufbrechen berücksichtigt werden. Es ist möglich, dass vor Beginn der eigentlichen Krustenspreizung KW-höffige Sedimentbecken entstanden sind. Die Untersuchung ausgewählter konjugierter, exakt symmetrischer Abschnitte ist bisher noch nie durchgeführt worden. Hier sind substanzielle Fortschritte zum Verständnis der Prozesse und Folgen des Aufbrechens von kontinentaler Lithosphäre aus integrierten marinen und landgestützten Untersuchungen zu erwarten.
Synergien
Innerhalb des GEOTECHNOLOGIEN-Programms besteht eine enge Absprache mit mehreren der gestarteten, beziehungsweise in Vorbereitung befindlichen Leitprojekten. Dies sind insbesondere folgende Programme, zu denen nebenstehende Beziehungen bestehen • Frühwarnsysteme im Erdmanagement – „Kontinentränder“ leistet die Erforschung der Grundlagen für geeignete Monitoring- und Prognoseverfahren • Informationssysteme im Erdmanagement Methoden der Geoinformatik sollen für Fragen von Datenmanagement und -analyse bis zur Datenmodellierung in den „Kontinentrand“-Projekten genutzt werden • Gashydrate im Geosystem die Erkundung der marinen Gashydratvorkommen an den Kontinenträndern sind inhaltlich und regional zum Teil mit Experimenten zu den „Kontinenträndern“ gekoppelt • Sedimentbecken – die zur Analyse vorgesehenen passiven Kontinentränder enthalten einige der größten Sedimentbecken der Erde Die Entwicklungen der hier beschriebenen Erkundungstechnologien kommen anderen Themenschwerpunkten des FuE-Programms GEOTECHNOLOGIEN zugute. Umgekehrt werden hier Entwicklungen aus anderen Themenschwerpunkten (zum Beispiel Gashydrate) genutzt. Außer zu diesen Themen besteht bereits jetzt eine enge Verbindung zu einer Reihe von DFG-geförderten Sonderforschungsbereichen (Mittel- und Südamerika, Süd- und Nordatlantik, östlicher Mittelmeerraum), Bündelprogrammen (zum Beispiel MERAPI, Südchile) und anderem Initiativen mit DFG- und BMBF-Förderung, die auch vielfach den Einsatz deutscher Forschungsschiffe beinhalten. Schließlich ergänzt das vorliegende Pro-
gramm ähnliche Initiativen den USA (MARGINS) und der Europa (EUROMARGINS). Zusätzlich zu diesen steht hier insbesondere die land-see-übergreifende Integration und die größere Breite von der Risiko- und Ressourcenforschung bis zu der dieser zugrundeliegenden Prozessforschung im Vordergrund.
Tomographie der Erdkruste – Von der Durchschallung zum Echtzeitmonitoring
D
ie Erdkruste ist die Existenzgrundlage und die wichtigste Ressourcenquelle der Menschheit. Sie enthält fast alle Rohstoffe, Energieträger und Trinkwasservorräte. Sie dient aber auch als Wärmequelle, Speicher und Zwischenlager oder als Deponie für Abfälle. Neben dem Nutzen birgt die Erdkruste aber auch erhebliche Gefahren durch Erdbeben und Vulkanismus. Die Erkundung und Abbildung der äußeren Hülle der Erde und die Bewertung ihres Nutzungs- und Risikopotenzials gehören damit zu den herausragenden Aufgaben der Geowissenschaften. Die technologische Entwicklung der letzten Jahre, vor allem im Bereich der Computertechnologie, hat bislang ungeahnte Möglichkeiten zur Erkundung der Erdkruste eröffnet. Diese reichen von der hochauflösenden räumlichen Durchleuchtung mit verschiedenen geophysikalischen Verfahren, die inzwischen sogar zeitliche Änderungen abbilden können, bis zu neuen rechnergestützten Visualisierungsmöglichkeiten. Damit ist ein technologischer Standard erreicht, mit dem ein völlig neues Verständnis über räumliche Zusammenhänge und zeitliche Prozesse in der oberen Erdkruste möglich ist. Dies gilt insbesondere für die dort vorhandenen Rohstoff- und Trinkwasserressourcen. Aber auch dort, wo es um die Deponierung von Abfällen, die Einlagerung von Kohlenwasserstoffen oder den Tiefbau geht, ist ein grundlegendes Verständnis der oberen Erdkruste unentbehrlich. Wachsende Bedeutung haben in den letzten Jahren die genaue Lokalisierung und Abbildung von geologischen Strukturen im Untergrund gewonnen, von denen Gefahren für die Menschheit ausgehen können. Das gilt vor allem für seismisch aktive Verwerfungen oder Magmenkammern.
Mehrere inzwischen abgeschlossene, sehr erfolgreiche nationale Programme, wie etwa das Deutsche Kontinentale Tiefbohrprogramm (KTB), haben zur Entwicklung und Verfügbarkeit moderner Methoden von hoher Praxisrelevanz geführt. Deren zielgerichtete Weiterentwicklung unter den neuen technologischen Randbedingungen ist eine zentrale Aufgabe der Geowissenschaften in Deutschland. Wird sie erfolgreich umgesetzt, lässt sich wichtiges methodisches Know-how von den Universitäten in den industriellen und öffentlichen Sektor transferieren.
29
Themenschwerpunkt: „Tomographie der Erdkruste – Von der Durchschallung zum Echtzeitmonitoring“ Förderstatus BMBF: Zur Zeit keine Förderung durch den BMBF. Förderstatus DFG: Zur Zeit keine Förderung durch die DFG.
30
Die Grundlagen und Verfahren der Erkundung und Abbildung
D
ie Erkundung und die zugehörigen Abbildungstechniken – kurz: Tomographie – bedienen sich zahlreicher verschiedener Methoden. Dazu gehören vor allem die aktive Seismologie (insbesondere Reflexionsseismik), Potenzialverfahren
Abb. 14: 3-D-reflexionsseismischer Datensatz über einen Salzstock mit unterschiedlicher Farbkodierung der Amplituden.
(Geomagnetik, Gravimetrie, Elektromagnetik), passive Techniken (zum Beispiel tomographische seismologische oder geochemische Verfahren) oder Logging und Beprobung in räumlich dichten Bohrnetzen. Sie sind geeignet, Eigenschaften und Aufbau der Lithosphäre in allen relevanten Skalenbereichen – vom cm- bis in den 100 km-Bereich – und in allen Dimensionen – 1-D bis 4-D – zu erfassen. Alle Erkundungstechniken bedienen sich dabei einander ähnlicher Verfahren zur Abbildung und Evaluierung raumbezogener Daten. Die wichtigsten Verfahren sind heute EDV-gestützte Visualisierungstechniken, geographische Informationssysteme, bilanzierte Profile und Volumina sowie verschiedene Inversionsverfahren, die gesuchte Systemeigenschaften und ihr Abbild im Raum über geometrische oder physikalische Gesetzmäßigkeiten aus messbaren Daten ableiten. Die technologische Entwicklung der letzten Jahre bei den verschiedenen Methoden der Datenakquisition sowie bei ihrer durchweg EDV-gestützten Weiterbearbeitung, lässt für die nähere Zukunft einen weiteren entscheidenden Schritt in der Entwicklung erwarten: Zur zunehmenden Präzision der Abbildung im 3-dimensionalen Raum tritt die Möglichkeit hinzu, aktive geologische Systeme zu vermessen, deren Zeitkonstanten so klein sind, dass sie im Bereich der menschlichen Erfahrbarkeit liegen und damit aber auch im Bereich des direkten Einflusses auf den menschlichen Lebensraum. Insbesondere schnelle Prozesse, wie zum Beispiel Schadstoffausbreitung oder Naturkatastrophen, wie Vulkanausbrüche und Erdbeben, aber auch Vorgänge, wie die kontrollierte Kohlenwasserstoffspeicherung im Untergrund, können damit erheblich nutzbringender und effizienter analysiert werden. Erst dies schafft die Grundlage, sowohl das Nutzungspotenzial unseres Planeten gezielter zu erforschen, als auch sein Gefährdungspotenzial in geologisch aktiven Regionen genauer zu überwachen. Die Entwicklung und Integration der verschiedenen neuen methodischen Ansätze in den Abbildungsverfahren und ihre Anwendung für geeignete geologische Objekte ist damit die wesentliche Herausforderung für die nächste Zukunft. Die massive Entwicklung aller Verfahren und ihr Einsatz sowohl in der Industrie wie in zahlreichen nationalen seismischen Programmen (zum Beispiel DEKORP) haben zu einem erheblichen Erkenntnisfortschritt in den letzten zwei Jahrzehnten geführt. Die ersten scharfen dreidimensionalen Bilder der obersten Erdkruste verdanken wir der Reflexionsseismik. Ihr Erfolg, vor allem bei der Exploration auf Kohlenwasserstoff-Lagerstätten, beruht auf zwei Fakten: dem nach Voruntersuchungen gezielten Ansatz von Bohrungen, der das finanzielle Risiko von Fehlbohrungen drastisch vermindert, und der Modellbildung durch Extrapolation von punktuellen Informationen aus Bohrungen zu einem geologischen Modell des räumlichen Untergrundes. Nicht nur in Sedimentbecken haben diese 2-D- und 3-D-Erkundungstechniken grundlegende Bedeutung gewonnen. Die in der Folge in den 70er und 80er Jahren entstandenen nationalen seismischen Programme zur Erkundung des tiefen Untergrundes jenseits der konkreten ökonomischen In-
teressen haben zu erheblichen Konsequenzen geführt. Insbesondere die Vorstellungen über die Architektur der Lithosphäre und ihre daraus abgeleitete zeitliche Entwicklung, ihre vertikale Gliederung, die Geometrie von Lagerstätten bis hin zu den Erfahrungen aus oberflächennahen Einsatzmöglichkeiten haben sich zum Teil geradezu dramatisch verändert. Zusätzlich haben sich aus diesen Programmen zahlreiche neue Impulse für methodische Entwicklungen sowohl in den Sedimentbecken wie in der kristallinen Erdkruste ergeben. Die sich gegenwärtig rasant entwickelnden Möglichkeiten im EDV-Bereich (Hardware sowie Software) haben in den letzten Jahren ein neues Stadium eingeleitet. Waren die Erkundungs- und Abbildungsverfahren bis dahin überwiegend auf die ein- oder zweidimensionale Analyse der Erdkruste ausgerichtet, so sind die aktuellen Verfahren in der Industrie inzwischen fast nur noch auf die 3-D-Erfassung des gesamten Raumes ausgerichtet. Sowohl geologische als auch finanzielle Randbedingungen erschweren die Extrapolation der Methoden, die in sedimentären Becken Anwendung finden, auf die Lithosphäre insgesamt. Die traditionell vorherrschenden Langprofile in der Seismik etwa liefern im allgemeinen zweidimensionale Schnitte durch den Untergrund, deren geologische Interpretation nur unter stringenten geometrischen Voraussetzungen möglich ist. Außerdem ist die kristalline Kruste in weiten Bereichen seismisch reflexionsarm beziehungsweise kleinskalig heterogen, so dass in der sedimentären Seismik bewährte ProcessingTechniken (zum Beispiel CDP) hier nur bedingt verwendbare Ergebnisse liefern. Der weltweit erste krustale 3-D-Datensatz auf dem Kontinent wurde um die KTB gewonnen; er hat das Verständnis von Reflektivität in der kontinentalen Kruste entscheidend gewandelt. Trotz der Beschränkung auf 2-D haben viele nationale Programme (unter anderem DEKORP) großartige Erfolge bei der Übertragung der reflexionsseismischen Aufnahmetechnik aus der Kohlenwasserstoff-Exploration auf die Erforschung der Lithosphäre erzielt. Richtig angewendet, wird die Reflexionsseismik daher auch in Zukunft ein wesentliches Werkzeug der Lithosphärenforschung bleiben. Es ist aber kaum möglich, ausreichend starke Sprengungen zu zünden, um tiefer als 50 km in die Erde zu schauen. Zu diesem Zwecke werden die von Erdbeben abgestrahlten Wellen registriert. Besonders geeignet sind die Wellen von sehr weit entfernten Beben, die durch den gesamten Erdkörper laufen und dabei Informationen über den tiefen Untergrund von seismischen Stationen aufnehmen. Die Tatsache, dass Erdbebenwellen den Erdkörper durchlaufen und somit geeignet sind, Strukturen überall im Erdinneren zu erkennen, wurden von Ernst von Rebeur-Paschwitz im Jahre 1889 entdeckt. Er registrierte damals mit einem von ihm selbst gebauten Horizontalpendel eine Bodenbewegung in Potsdam und konnte nachweisen, dass sie von einem Erdbeben in Japan stammte. Steil von unten auf die Erdoberfläche einfallende P-Wellen erzeugen an Gesteinsgrenzen unter einer seismischen Station konvertierte sekundäre Wellen (S-Wellen), die in einigem zeitlichen Abstand dem ers-
ten Signal folgen. Diese konvertierten Wellen erlauben es, in sehr großen Tiefen Gesteinsgrenzen zu kartieren. Die neue Methode ist unter dem Namen „Receiver Function“ Methode bekannt geworden. Der Durchbruch für die neue Methode kam in den neunziger Jahren, als man erkannte, dass diese Methode ähnliche Möglichkeiten für den Erdmantel bietet wie die Reflexionsmethode für die Erdkruste. Erst mit dem Einsatz mobiler Stationsnetze wurde das volle Potenzial der neuen Methode sichtbar. Wesentliche Entwicklungsarbeiten dazu wurden am GFZ Potsdam geleistet.
31
Abb. 15: a) Tiefenmigrierte Receiver Functions entlang eines N/S-Profiles quer durch die Alpen. Dabei werden seismische Diskontinuitäten durch PS-konvertierte Wellen sichtbar. Sehr klar abgebildet wird die europäische Moho, die sich unter die adriatische Moho schiebt. Trotz der relativ großen Wellenlängen der teleseismischen Wellen sind noch eine Reihe von innerkrustalen Diskontinuitäten abgebildet, die gut mit den Linedrawings des reflexionsseimischen TRANSALPProfils (b) übereinstimmen.
Trotz der beschränkten Auflösung und der damit einhergehenden Unschärfe sind der Seismologie mit Hilfe passiver Techniken tomographische Aufnahmen des Erdinnern gelungen, an die vor wenigen Jahren noch niemand zu denken wagte. Die erkennbaren Details von Erdkruste, Mantel und Kern haben die Randbedingungen für das dynamische Modell der Erde präzisiert, indem sie indirekt auch Auskunft über die räumliche Verteilung grundlegender physikalischer Eigenschaften, wie zum Beispiel Temperatur und Dichte, geben. Ohne verfeinerte Methoden der Datenerfassung und -verarbeitung ist das ehrgeizige Ziel der Tomographie, nämlich dreidimensionale Detailbilder der Lithosphäre zu liefern, nicht erreichbar, und seismische Arrays spielen hierbei eine Schlüsselrolle. Andere geophysikalische Erkundungsverfahren, wie Potenzialverfahren (Magnetik, Gravimetrie, Geoelektrik), liefern bei günstigem Kosteneinsatz allerdings erheblich weniger präzise, häufig schwer interpretierbare Bilder. Geologische Verfahren, wie die räumliche Erkundung durch dichte Bohrnetze wiederum
32
stoßen leicht an finanzielle Grenzen oder Grenzen der Erkundungsschärfe in kompliziert aufgebauten geologischen Strukturen. Dennoch finden auch diese Techniken der Tomographie bei geeigneten Objekten und Fragestellungen ihre Anwendung mit zum Teil ganz erheblichem Gewicht. Parallel dazu entwickelt sich der Bereich der Abbildungsverfahren ebenfalls hin zu einer 3-D-Visualisierung und 3-D-Validierung von räumlichen Modellen. Die jüngsten Entwicklungen im Bereich leistungsfähiger Rechner und die Entwicklung von Software zur Verarbeitung, Visualisierung und Modellierung großer Datensätze hat hier die entscheidende Voraussetzung geschaffen. Grundsätzliche Einschränkungen in den Eigenschaften von geologischen Abbildungs- und Vorhersageverfahren zu Strukturen im Raum oder der Verteilung von Gesteinen/Gesteinseigenschaften, die sich aus der bisher vorherrschenden 2-D-Betrachtung ergaben, werden damit gegenwärtig schrittweise überwunden. Als aktuellste Komponente in dieser Entwicklung treten inzwischen erste Versuche hinzu, das zeitabhängige Verhalten von dynamischen Systemen oder die zeitliche Entwicklung von Strukturen zu vermessen, also eine echte 4-D-Tomographie – in Raum und Zeit – vornehmen zu können. Im Oberflächenbereich sind diese Fernerkundungsverfahren, wie die Vermessung von Bewegungen und Deformationen der Erdkruste mit Hilfe des satellitengestützten GPS-Systems, die Radarinterferometrie und -altimetrie zur Vermessung von schnellen Oberflächenveränderungen (zur Überwachung etwa von Erosion oder drohenden Bergstürzen), das Monitoring von aktiven Systemen wie Vulkanen oder erdbebengefährdeten Regionen mit verschiedenen Verfahren in Echtzeit, und so weiter. Im Tiefenbereich werden Verteilungsmuster der Seismizität an aktiven Störungen oder Vulkanen vermessen, aber auch mit Wiederholungsmessungen zum Beispiel die Entwicklung oder Extraktion von Kohlenwasserstoff-Lagerstätten, die Speicherung von Kohlenwasserstoffen in Kavernen- und Porenspeichern oder die Schadstoffausbreitung in Grundwasserleitern verfolgt sowie zum Beispiel die geophysikalische Online-Vorerkundung während des Baus eines Tunnels betrieben. Weitere Anwendungen in Systemen mit kleinen Zeitkonstanten sind denkbar. Dementsprechend sind moderne Abbildungs- oder besser Modellierungsverfahren bereits in der Lage, die kinematische (zum Teil auch dynamische) Entwicklung von geologischen Systemen wiederzugeben und auf ihrer Basis auch quantitative Vorhersagen zu ihrer geometrischen Entwicklung zu treffen.
Stand der Entwicklung und Anwendung
Meist aus der Exploration von Kohlenwasserstoffen und mineralischen Lagerstätten stammend, sind die Verfahren der Tomographie inzwischen Gegenstand intensiver Forschung und Entwicklung über alle Anwendungsbereiche bis in die Grundlagenforschung hinein. Histo-
risch entwickelten sich seit Beginn dieses Jahrhunderts fast alle Verfahren aus den Bedürfnissen der Explorations- und der Tiefbauindustrie, die exakte Erkundungsverfahren auf der einen Seite sowie entsprechende Interpretationsverfahren und geologische Vorhersagetechniken auf der anderen Seite benötigten. Die aktuellen Forschungsaktivitäten gliedern sich in die verschiedenen Techniken mit einem sehr unterschiedlich großen Potenzial in Deutschland. Neben der Verbesserung des Auflösungsvermögens seismischer Verfahren und dem 4-D-Monitoring zeitlich schnell veränderlicher Prozesse ist in den letzen Jahren die Interpretation lithologischer Parameter in das Zentrum der Forschung gerückt. Hierdurch wird es möglich, die Ergebnisse unterschiedlicher geowissenschaftlicher Disziplinen direkt und praxisnah zu verbinden und zu visualisieren. Ein Beispiel hierfür ist die sogenannte LithoTomographie, welche seismische Abbildungsverfahren (Tomographie) direkt mit geologischer Kartierung und laborgestützten petrologischen Verfahren verknüpft. Abbildung 16 zeigt Ergebnisse der Litho-Tomographie in Namibia, da dort durch exemplarische Aufschlussbedingungen diese Methode kalibriert und verifiziert werden konnte. Entlang eines 80 km langen seismischen Profils wurden P- und S-Wellen registriert und entsprechende tomographische Tiefenschnitte (Abb. 16 a,b) sowie der daraus resultierende Tiefenschnitt des Poissonverhältnisses (Abb. 16 c) bestimmt. Für jedes Volumenelement des Untergrunds lässt sich somit ein Wert im P-Geschwindigkeit-Poissonverhältnis-Crossplot (vp-σ ) ableiten (Abb. 16 d). Die hierbei auftretende „Clusterung“ ist ein Indiz auf die Häufung lithologischer Parameter in wenigen Gruppen. Die Charakterisierung dieser Gruppen als Gesteine unterschiedlicher, chemischer Zusammensetzung sowie unterschiedlicher Abnahme der Porosität mit der Tiefe konnte durch geologische Kartierung, kombiniert mit petrophysikalischen Laboruntersuchungen, verifiziert werden (Abb.16e). Die Rückabbildung der lithologischen Cluster in einen Tiefenschnitt erlaubt nun die lagetreue Interpretation lithologischer Parameter (Abb. 16 f ), wie sie bisher nur direkt an der Oberfläche möglich war (Abb. 16 g). Das hier gezeigte Verfahren ist nur ein Beispiel vieler möglicher Verknüpfungen unterschiedlicher Parameter und Disziplinen. Der Ansatz seismische Methoden und magnetotellurische Verfahren zu integrieren, um Struktur und Parameter des Untergrunds zu kartieren und charakterisieren ist ein Schwerpunkt zukünftiger Forschung. Die Methoden der geophysikalischen Erkundung sind traditionell stark vertreten und haben an den Universitäten und den außeruniversitären geowissenschaftlichen Forschungseinrichtungen (GEOMAR, GFZ, BGR) besonders von den Programmen DEKORP, KTB und EUROPROBE stark profitiert. Ohne Übertreibung kann gesagt werden, dass als Erfolg davon in Deutschland eine Expertise von besonderer Qualität in diesem Bereich entwickelt worden ist. Dies gilt insbesondere für die Datenbearbeitungstechniken (Processing). Die industrielle Forschung hat hier zunächst noch eine Vor-
Abb. 16: Litho-Tomographie am Beispiel eines 80 km langen seismischen Profils durch Namibia.
reiterrolle gespielt – heute gilt dies nur noch bei der Datenakquisition. Inzwischen ist bei der Industrie insbesondere in den letzten Jahren eine deutlich rückläufige Entwicklung zu verzeichnen, bedingt vor allem durch Firmenschließungen, Stellenabbau und zunehmendes „Outsourcing“ bestimmter Aufgaben, zu denen insbesondere auch die Erkundung und Interpretation zählen. Neuerdings zeichnet sich hier jedoch eine Trendwende ab, die möglicherweise Teile des verlorengegangenen Know-hows wiederherstellen wird. Einzelne laufende Aktivitäten umfassen gegenwärtig etwa das unter Federführung von DGMK durchgeführte Projekt GWC, das sich mit allen Aspekten der Erkennung des Gas-/Wasserkontaktes beschäftigt. Die hochauflösende Rekonstruktion der räumlichen Verteilung von Porosität und Durchlässigkeit sowie deren zeitliche Änderung, etwa durch den Transport von Schadstoffen, kann nur durch kombinierten Einsatz geophysikalischer und geochemischer Tomographie erfolgen. Vom Forschungstentrum Jülich wird in ähnlicher Richtung die Schadstoffausbreitung und Sicherung des Grundwassers an einem konkreten Versuchsfeld über zahlreiche Bohrungen und einem ständigen geochemischen Monitoring untersucht. Durch die jedoch insgesamt rückläufige Entwicklung sowie durch das Ende der nationalen durch das BMBF
finanzierten geowissenschaftlichen Forschungsprogramme DEKORP und KTB (wie auch der Programme „Tiefengas“ und LITASEIS) entsteht in der kontinentalen geowissenschaftlichen Forschung hier eine erhebliche Lücke. Die in Deutschland sehr aktive marine geowissenschaftliche Forschung (AWI, GEOMAR, BGR und einige meist norddeutsche Universitätsinstitute) befindet sich in diesem methodischen Kontext in einer etwas anderen Situation. Der kostengünstigen Erforschung des ozeanischen Untergrundes mit geeigneten Abbildungsverfahren steht hier die aufwendige Sicherung der marinen Forschungsplattformen gegenüber (zum Beispiel Forschungsschiff „SONNE“), die eine Langfristverpflichtung darstellt. Zu nennen sind hier insbesondere das langjährige internationale ODP-Programm und DFG-geförderte Sonderforschungsbereiche im marinen Bereich sowie größere BMBF-geförderte Einzelprojekte (zum Beispiel CINCA, CONDOR, TICOSECT et cetera), die immer wieder geophysikalische Abbildungsverfahren als Schlüsselexperimente eingesetzt haben. Mit diesen Aktivitäten nimmt die deutsche Forschung bisher international eine führende Rolle ein. Industrielle Interessen in Deutschland konzentrieren sich im marinen Raum wesentlich und mit zunehmender Tendenz auf die Exploration von Kohlenwasserstoffen. Entsprechend hoch ist der Entwicklungsbedarf geeigneter Aufsuchungsmethoden. Dennoch gerät gegenwärtig auch dieser Zweig unter wachsenden Druck. Die Sicherung der in allen Fällen auf hohem Niveau laufenden Forschung und erst recht die wegen der zunehmend größeren und komplexeren Datenbasis notwendige methodische Weiterentwicklung erscheinen daher in Deutschland in allen Bereichen gegenwärtig erheblich gefährdet. Im Bereich der Abbildungs- und Interpretationstechniken ist die Entwicklung in Deutschland uneinheitlich. So ist zwar durch einen DFG-geförderten Sonderforschungsbereich in den 80er Jahren an den Universitäten der Einsatz mathematischer Analyse- und Visualisierungsverfahren vorangetrieben worden. Doch ist die deutsche Beteiligung an der Entwicklung von geologischen Evaluierungs- und Vorhersagemethoden (zum Beispiel Beckenmodellierung, bilanzierte Profile in 2-D/3-D) erst in den letzten Jahren zunehmend in Gang gekommen, aber erst in wenigen, meist außeruniversitären, Forschungsstandorten solide verankert (FZJ, GFZ). Anders als im angelsächsischen Raum spielt die Industrie hier bei der Entwicklung eine sehr untergeordnete Rolle mit Ausnahme nur sehr weniger mittelständischer Firmen (zum Beispiel IES Jülich). Der Stand entspricht insgesamt noch längst nicht den quantitativen Notwendigkeiten in der industriellen und kommunalen Anwendung und hat noch nicht die selbstverständliche Stellung in Industrie und Forschung, die in anderen OECD-Ländern inzwischen üblich ist. Insgesamt stehen damit Fähigkeiten auf hohem Niveau in bestimmten Bereichen, deren Fortbestand gefährdet erscheint, neben einem noch teilweise bestehenden Defizit in der Entwicklung in anderen Bereichen gegenüber.
33
Notwendige Forschungs- und Entwicklungsaufgaben
34
a) Erkundung und Auflösung von komplexen Strukturen und von Abläufen in dynamischen Systemen mit kleinen Zeitkonstanten Auf dem Gebiet der seismischen Abbildung haben sich erhebliche Fortschritte im Bereich der Datenakquisition (zum Beispiel „Multistreamer“-Schiffe, mobile seismische Arrays) der Datenverarbeitung (beim seismischen Processing) und der Interpretation entwickelt. So führt zum Beispiel die Einbeziehung von Feinstrukturen und zufallsverteilten Medien (mit Verfahren der Geostatistik), von Porositäten und Durchlässigkeiten in Inversion und Interpretation dazu, dass die Geowissenschaften in der Lage sind, Prozesse zeitlich und räumlich zu beobachten, quantitativ zu beschreiben und in beiden Richtungen der Zeitachse zu extrapolieren, das heißt sowohl die Vergangenheit zu rekonstruieren, als auch in die Zukunft zu prognostizieren. Die Vermessung zeitabhängiger Prozesse kann nur dort erfolgreich sein, wo sich durch bekannte Verfahren ermittelbare Messparameter verändern. Die Prozesse, die messbare Parameter verändern, sind vor allem die Bewegung von Fluiden (Wasser, Öl, Gas) im Gesteinskörper, deren Wechselwirkung mit der Gesteinsmatrix die physikalisch/felsmechanischen Eigenschaften der Matrix beeinflusst, vor allem die Porosität, Durchlässigkeit, Dichte und Stabilität. Daneben können schnelle Deformationen über Dilatation oder Kompaktion des Porenvolumens ebenfalls physikalisch messbare Parameter beeinflussen. Bedarf besteht daher an der Entwicklung von Methoden zur Überwachung, quantitativen Beschreibung, Rekonstruktion und Vorhersage von Fluidbewegungen in Raum und Zeit durch integrierte 4-DMethoden der Geophysik, Geochemie, Strukturgeologie und Petrologie/Petrophysik. Dies gilt sowohl für Bereiche hoher Porosität und Durchlässigkeit (Böden, Deponien, Akkretionsprismen an aktiven Kontinentalrändern, Sedimentbecken, aktive Verwerfungen), als auch für Umgebungen mit niedrigen Porositäten (Kristallin, Deponien, Erdkruste). Ebenso besteht Bedarf an der Entwicklung integrierter Methoden zur Überwachung von aktiven Verwerfungssystemen und Magmenkammern mit dem Ziel, die Gefährdung dichtbesiedelter Regionen durch Erdbeben und Vulkanausbrüche zu quantifizieren und zu reduzieren. Zeitliche und räumliche Kontrolle der assoziierten Phänomene sind wesentlich. Da Fluide auch eine wesentliche Rolle bei der Aktivierung von Verwerfungen und Magmakammern spielen, ist dieser Komplex eng mit dem erstgenannten verbunden. Darüber hinaus sind die gleichen Aspekte entscheidend in der Öl- und Gasexploration, -produktion, und -lagerung mit Klärungsbedarf zu mehreren Themen. Diese betreffen insbesondere die zeitliche und räumliche Erkundung und Simulation von Fließ-, Ausfällungs- und Lösungsvorgängen von Fluiden durch den Gesteinsverband, vor allem durch die Reservoirgesteine (als retrospektive Inversion für die Beckensimulation oder als forward modelling für die KW-Produktion beim Wasserein-
pressen und Dampffluten von Öllagerstätten). Dieser Themenkreis betrifft weiterhin die Verfolgung von Lösungs- oder Kristallisationsfronten und die damit verbundenen Volumenänderungen durch das Gestein, die Klärung der Migrationsgeschwindigkeiten und der Umsatzmengen von Gasen durch Gesteine, Fragen der Raten von Gleichgewichtseinstellungen in Lagerstätten und Poren-/Kavernenspeichern bis hin zu geeigneten Verhütungs-/Entsorgungsstrategien von Schadstoffen im Boden (zum Beispiel Kohlenwasserstoffe, radioaktive Stoffe, Gase). Die einzelnen Techniken, etwa zur Charakterisierung von Reservoiren oder Speichern, sind: wiederholte Bohrloch-Tomographie und 3-D-Reflexionsmessungen, Überwachung der Seismizität sowie der hydraulischen und geochemischen Parameter, „Logging“ in Bohrungen und die räumlich dichte, wiederholte Beprobung für eine geochemische Tomographie. Der Forschungsbedarf in all diesen Bereichen besteht dabei nur zum Teil in der Entwicklung einzelner Komponenten, vor allem aber in ihrer Integration beim Einsatz an geeigneten Untersuchungsobjekten. So sind zum Beispiel Seismik und Magnetotellurik (MT) beide in der Lage, Strukturen in der Erdkruste auf Skalen von Metern bis Zehner-Kilometern abzubilden. Da MT ein Abbild der elektrischen Leitfähigkeit liefert, ist diese Methode sensitiver auf Porosität, Vernetzung von Fluiden und Porengeometrie als seismische Standardtechniken. Anderseits sind seismische Methoden besser in der Lage, die Matrix poröser Gesteine und scharfe strukturelle Grenzen abzubilden. Aufgrund dieser Komplementarität geht die Entwicklung dahin, seismische und MT-Daten koinzident aufzunehmen. Diese komplementären Datensätze und Abbilder des Untergrundes können analog, wie für die Litho-Tomographie gezeigt, kombiniert und gemeinsam interpretiert werden. Hierbei kann insbesondere ausgenutzt werden, dass die elektrische Leitfähigkeit in der Kruste über mehrere Größenordnungen variiert. Dieser Ansatz wurde zum Beispiel auf koinzidente MT- und Seismik-Daten über der San Andreas Fault in Zentralkalifornien angewandt. Leitfähigkeits-P-Geschwindigkeits-Histogramme ähnlich zu Abbildung 16 d wurden benutzt um mehrere Klassen in diesem Zustandsraum zu identifizieren. Die Rückabbildung dieser Gruppen in die entsprechenden Tiefenschnitte (analog zu Abb. 16 f ) erlauben dann, geologische, tektonische und physikalische Grenzen abzubilden, welche in den individuellen Tomographiesektionen nicht sichtbar waren. Sowohl Leitfähigkeit als auch seismische Dämpfung hängen zum Beispiel von der Porosität des Mediums oder dem Grad der Aufschmelzung in Magmakammern ab, so dass zum Beispiel durch die Verknüpfung dieser beiden Methoden in Zukunft bessere Tiefenschnitte der Porosität, des Aufschmelzungsgrads oder des Fluidgehalts möglich werden. Porosität ist wiederum auch einer der Schlüsselparameter für die Exploration von Kohlenwasserstoffen und geothermischen Reservoiren, beim Monitoring von Schadstoffausbreitung und bei der Abbildung aktiver Verwerfungen. Um einen solchen Me-
35
Abb. 17a: Reflexionsseismische Wiederholungsmessungen zur Ermittlung der Wanderung von Fluidfronten während der Ölextraktion und zur Reservoirmodellierung (Die Oberkante des Speichers entspricht der reflektierenden Grenze in Bildmitte).
Abb. 17b: Reflexionsseismisches Abbild vom Dampffluten einer Kohlenwasserstofflagerstätte über einen Zeitraum von 31 Monaten; im Injektionsintervall zwischen den beiden gelben Linien verändern sich die petrophysikalischen Eigenschaften der Schichten – und damit ihre Speichereigenschaften – maßgeblich während dieses Vorgangs, wie die veränderten Amplituden und Verzerrungen der Reflektoren zeigen.
thodenkomplex zu entwickeln, ist es notwendig, an einem geeigneten geologischen Objekt wiederholte Messungen vorzunehmen, um die Methoden adaptiv zu verbessern. b) Abbildungs-, Inversions- und Interpretationstechniken Nahezu alle Modellierungs- und Interpretationsverfahren beruhen wegen der prinzipiell unvollständigen
36
Datenbasis auf zwei konkurrierenden Strategien: den approximativen Inversionsmethoden (der Rückrechnung von gemessenen Daten auf unbekannte Größen) oder auf den trial and error-Methoden der Vorwärtsmodellierung. Dies gilt für die Bestimmung von Eigenschaften und ihrer Verteilung, für die Modellierung geologischer Strukturen wie für die Simulation von Prozessen im Raum und für Vorhersagen. Die einzelnen Verfahren sind in vielen Fällen gut bekannt und zum Teil in Form marktgängiger Produkte verfügbar. Datenverarbeitung bei der Modellierung allgemein, so auch zum Beispiel bei der Beckenmodellierung, besteht zum einen in der Erstellung des Modells („preprocessing“), in das die verschiedensten Daten integriert werden müssen, um die Geometrie oder Architektur des Modells zu konstruieren sowie die Eigenschaften den einzelnen Modellelementen (Zellen) zuzuordnen. Auf der anderen Seite müssen die in der Simulation entstandenen Datenmengen leicht zugänglich dargestellt werden können („post processing“), um die Resultate sichtbar zu machen. Diese Datenmanipulationen und Grafikdarstellungen sind in 3-D sehr viel aufwendiger und schwieriger zu handhaben, als in den bis jetzt gängigen 2-D-Modellen. Mit der gegenwärtig rapiden Entwicklung von 3-D-Modellen, wie zum Beispiel in der Beckensimulation oder Modellierung der Beckenfüllung, besteht ein kritischer Bedarf an Entwicklung von Methoden zur 3-4-D-Manipulation geologischer Daten mit spezifischen, geologisch geeigneten Datenstrukturen. Auch für die Output-Seite werden verbesserte Darstellungsmöglichkeiten benötigt, die es erlauben 4-DDatenkuben in beliebiger Weise zu visualisieren oder in allen untergeordneten Dimensionen (Zeit und Raum) zu zerschneiden und so darzustellen. Es gibt für beides ebenfalls heute schon verschiedene Ansätze, die meist kommerziell vertrieben werden. Detaillierte Abbilder der Strukturen des Untergrundes (zur Lagerstättensuche, -modellierung; Krustenstrukturen; Geometrie aktiver Systeme wie Verwerfungen, Vulkane, Grundwasserspeicher et cetera) lassen sich nur durch eine Erweiterung der Betrachtungen und Modellierungen in den 3-D-Raum hinreichend genau modellieren. Notwendig sind dazu einerseits noch die Entwicklung von Algorithmen zur Beschreibung entsprechender Geometrien sowie andererseits erheblich größere Datensätze als bisher, die, über Karten hinaus, 2-D-Profile, Bohrungen, tektonische Daten und andere tomographische Daten in genügend großer Dichte enthalten müssen, um hinreichend eingeschränkte und präzise Lösungen und Aussagen zu gestatten. Validierungstechniken zum Testen verschiedener Lösungen (zum Beispiel bilanzierte Profile/Volumina) spielen hier in der Industrie eine entscheidende Rolle. Die Anwendung lässt sich unter den komplexen mathematischen Bedingungen und wegen der sehr großen Datensätze nur noch EDV-gestützt vornehmen. Erste 3-D-Validierungswerkzeuge sind seit 1994 auf dem Markt. Ein erheblicher Entwicklungsbedarf besteht jedoch in der Integration der Datenbasen sowie der Inversionsund Interpretationstechniken für die Behandlung dyna-
mischer Systeme. Nur damit können für diese Systeme, die sich zeitlich rasch ändern, Prognosen gemacht werden, die zum kontrollierten Management genutzt werden können. Dieser wichtige Schritt der Integration ist nicht nur für die Quantifizierung in Reservoiren und Speichern nötig, sondern auch im Bereich der Deponieüberwachung sowie der Überwachung der Gefährdung durch Erdbeben und vulkanische Aktivität. Schlüsselbegriffe der Integration sind dabei zum einen die Datenorganisation (GIS), die 3-D beziehungsweise 4-D-Visualisierung komplexer und heterogener Datensätze sowie die Entwicklung von Expertensystemen. Mit neuronalen Netzen etwa sind im Bereich der Interpretation von Bohrloch- und seismischen Daten bereits gute Ergebnisse erzielt worden, die aber auf komplexe Systemen zu übertragen bleiben. Zum anderen sind wegen der dennoch grundsätzlichen Unbestimmtheiten bei inversen Modellierungsstrategien die oben genannte Integration mit anderen Datensätzen und Techniken die Strategie der Zukunft (Joint inversion). Verfahren der gekoppelten Inversion (zum Beispiel 3-D-Seismik + petrophysikalisches Modell + Strukturmodell + seismische Modellierung integriert zu einem intern konsistenten Untergrundmodell) sind eine Grundlage, um die Qualität von Vorhersagen zur Strukturfortsetzung im Raum signifikant zu steigern ebenso wie das Auffinden von Gesteinen/Lagerstätten mit spezifischen Eigenschaften. In diesem Zusammenhang spielt die Ermittlung von petrophysikalischen Daten von dynamischen Systemen unter nichtstationären Bedingungen (aus Experimenten und Bohrlochlogging), insbesondere von Parametern, die von den verschiedenen tomographischen Verfahren erfasst werden können, eine wichtige Rolle (zum Beispiel Deformationsverhalten, seismische Eigenschaften, Dichte, Leitfähigkeit, et cetera). Zur Erzeugung von 4-D-Abbildungen von zeitabhängigem Systemverhalten und für Vorhersagen sind diese Techniken allein aber noch nicht geeignet. Der Schritt vom Abbilden gemessener Daten zum Verstehen der ursächlichen physikalischen Prozesse hat eine neue Qualität. Der Weg hierzu kann letzten Endes nur über geeignete dynamische Modellierungs- und Simulationstechniken führen (zum Beispiel Modellierungen mit finite Elemente- und finite-Differenzen-Techniken). Bisherige Anwendungen konzentrieren sich noch fast ausschließlich darauf, zum Beispiel Fluidbewegungen oder Deformationen von meist einfachen Körpern unter meist konstanten Bedingungen zu modellieren. Schon hier zeigt sich, dass zusätzliche Aspekte in die Modellierung wegen der Wechselbeziehungen quantitativ mit einbezogen werden können: die thermische Entwicklung eines Körpers, der Fluidfluss, die Beziehung Kräfte – Partikelverschiebungsfelder, Erosion und oberflächlicher Massentransport, anisotrope Materialeigenschaften und so weiter. Rein geometrische Verfahren sind sehr viel genauer bezüglich der Leistung in der Abbildung realer Strukturen in anisotropen Körpern. Ihre Integration mit dynamischen Modellierungstechniken bei geeigneter Verfeinerung für komplexe, anisotrope Körper erscheint als das geeignete Verfahren, um eine Grundlage für zukünftige hochauflösende und verlässlichere Vorhersagen herzustellen.
Projektvorschläge Die Natur der dargestellten Thematik zeigt, dass es sich bei der Tomographie um einen Komplex handelt, der sich als grundsätzlich notwendiges Handwerkszeug in fast allen thematischen Leitprojekten dieses Programms als methodische Komponente, häufig sogar als das zentrale Werkzeug wiederfindet. Dies gilt insbesondere für Projekte zu geologischen Objekten, in denen Fragen der Abbildung der Struktur oder des zeitlichen Verhaltens von besonderen Interesse sind. Dies sind zum Beispiel das Aufsuchen und Management von Ressourcen, die Erkundung und Vorhersage im Tiefbau und bei der Schadstoffausbreitung oder die Überwachung aktiver Regionen insbesondere an aktiven Plattengrenzen (Erdbeben, Vulkane, instabile Küstenregionen, et cetera). Daneben existieren jedoch auch originäre Forschungsnotwendigkeiten innerhalb dieses methodischen Rahmens. Deutlich ist in den ausgeführten Darstellungen, dass die zukünftige Forschung im Kontext Erkundung und Abbildung besonders auf folgende zwei Aspekte konzentriert sein muss: • Weiterentwicklung von Techniken, die Abbildung und Monitoring in hoher räumlicher Auflösung und möglichst in Echtzeit erlauben; wegen der traditionellen Forschungsschwerpunkte haben die seismischen Verfahren – auch wegen ihres Abbildungspotenzials – hier das größte Gewicht; • Integration der zahlreichen Techniken zur Datenanalyse, -interpretation und -darstellung mit der Entwicklung geeigneter Strategien („Joint inversion“, Expertensysteme, neuronale Netze und ähnliches). Folgende Projekte werden vorgeschlagen: 1) Die Array-Technik als (dreidimensionales) Aufzeichnungsverfahren der seismischen Tomographie ist Kern des Beispiels für die Entwicklung von modernen Akquisitionstechniken. Seismische Arrays als flächenhafte Verbundsysteme von vielen identischen Seismometern werden in der Seismologie seit über 20 Jahren eingesetzt, in linienförmiger Konfiguration gibt es sie in der seismischen Exploration schon immer. Im Rahmen dieses Vorschlags geht es um die Erfassung und Auswertung des zweidimensionalen Wellenfeldes an der Erdoberfläche, wobei die Entwurfskriterien der Antennentheorie in vollem Umfang angewendet werden sollen. Hierbei sind einige hundert seismische Stationen notwendig, die flächenhaft mit Abständen zwischen 100 m und 1000 m aufgestellt werden. In aseismischen Gebieten, wie zum Beispiel an passiven Kontinentalrändern, bieten sich teleseismische Erdbeben als Quellen an. Von besonderem Interesse ist aber die Array-Tomographie in seismisch aktiven Gebieten, wo hohe Seismizität einen Überdeckungsgrad der seismischen Strahlen liefert, so dass sogar Migrationstechniken aus der Reflexionsseismik anwendbar werden können. In seismisch aktiven Gebieten mit ortsfesten Quellen, die durch eine „Cluster“-Analyse leicht zu ermitteln sind, erlaubt die
Arraytomographie darüberhinaus eine Zeitabhängigkeit elastischer Parameter nachzuweisen (4-D-Tomographie) und damit eine physikalische Basis für Frühwarnsysteme in Erdbeben- und Vulkangebieten zu liefern. 2) Integration von Methoden ist ein Schlüssel für die Verbesserung von Erkundungs- wie von Abbildungstechniken. Seismische, geoelektrische und elektromagnetische Methoden zum Beispiel können 3-D-Bilder des Untergrundes liefern. Sie sind signifikant von den Eigenschaften wie Porosität, Fluidzusammensetzung oder Mikrostruktur des Mediums beeinflusst. Die gemeinsame Invertierung dieser Eigenschaften (Joint Inversion) ist für alle Prozesse, an denen Fluide (Wasser, Öl, Gas) beteiligt sind, wesentlich. Voraussetzung sind hochauflösende Abbildungsverfahren, amplitudenbewahrende seismische Migration und Inversion, Extraktion von Attributen (zum Beispiel „Amplitude Versus Offset“), petrophysikalische und strukturgeologische Inversion sowie die Wiederholung von 3-D-Experimenten mit der Integration von anderen geowissenschaftlichen Methoden bei der Auswertung dieser Experimente. Auch im Bereich der Beckenmodellierung ist die Integration von thermischer, geometrischer und dynamischer Modellierung eine als notwendig erkannte Strategie für die Zukunft. Für die Entwicklung geeigneter Kombinationen von Abbildungstechniken bei aktiven Systemen sind dabei zusätzlich gezielte petrophysikalische Experimente und Loggingdaten notwendig, die die bisher bestehende Kenntnislücke bezüglich der Gesteinseigenschaften unter nichtstationären Bedingungen zu schließen haben. 3) Struktur und Dynamik der europäischen Lithosphäre Die Strukturen und die Entwicklung der europäischen Lithosphäre wurden in den vergangenen Jahrzehnten intensiv im Rahmen einer Reihe nationaler und internationaler Experimente studiert. Dabei sind besonders das EGT – (European Geotraverse) – Experiment, DEKORP, EUROPROBE und TRANSALP zu nennen. Als Ergebnisse wurden wesentliche neue Einblicke in die Entstehungsgeschichte des europäischen Subkontinentes gewonnen. Die benutzten Methoden waren hauptsächlich controlled source seismische Methoden (Weit- und Steilwinkelmethoden), deren Energiequellen nur selten ausreichend waren, um die Ursachen der Krustendynamik, die im Erdmantel liegen, ausreichend abzubilden und damit zu verstehen. Besonders im letzten Jahrzehnt wurden Methoden weiterentwickelt, die natürliche Energiequellen (Erdbeben) nutzen, um tief in den Erdmantel schauen zu können. Zu diesen Methoden zählt die seismische Tomographie (Raum- und Oberflächenwellen), konvertierte Wellen („Receiver Functions“) oder seismische Anisotropie (zum Beispiel SKS-Methode). Diese Methoden erlauben es in Kooperation mit geowissenschaftlichen Nachbardisziplinen (Petrologie, Gravimetrie, geodynamische Modellierung) neue Informationen von bisher nicht erreichter Klarheit über die Dynamik der gesamten Lithosphäre (Kollision oder Auseinanderbrechen von Lithosphärenplatten) zu erhalten. Deshalb
37
38
wird ein Experiment vorgeschlagen, das vor allem im alpinen und mediterranen Raum mit seinem hohen Gefährdungspotenzial die Abläufe der Lithosphären-Dynamik mit Hilfe von Erdbebenbeobachtungen untersucht. In den Vereinigten Staaten ist ein großes Projekt (USArray) mit ähnlicher Zielsetzung für den amerikanischen Kontinent gerade im Rahmen des EARTHSCOPE Projektes genehmigt worden. Bei dem hier vorgeschlagenen Experiment sollen einhundert mobile seismische Breitbandstationen im Laufe von 10 Jahren über den geodynamisch besonders aktiven Teil des europäischen Kontinentes bewegt werden. Der Stationsabstand soll der Komplexität des Problemes angepasst werden, also variabel sein. Das Ziel ist Strukturen im oberen Erdmantel mit etwa 10 km Genauigkeit aufzulösen. Die Daten sollen in Echtzeit in ein Datenzentrum übertragen und ausgewertet werden. Damit kann in relativ kurzer Zeit entschieden werden, ob der Stationsabstand vergrößert werden kann oder verkleinert werden muss, um die nötige Auflösung zu erreichen. Die Datenübertragung in Echtzeit ermöglicht als zusätzlichen Nutzen eine schnelle und genaue Lokalisierung aktueller Erdbeben und eine schnelle Weitergabe der gewonnen Informationen an interessierte wissenschaftliche oder staatliche Stellen. Die Daten existierender permanenter Breitbandstationen der verschiedenen nationalen Netze sollen einbezogen werden.
lischer und geochemischer Tomographie erfolgen. Letztere weist die Stoffe punktuell durch Beprobung nach. Erstere liefert die Randbedingungen für die Strömungs- und Verteilungsprozesse. Im Bereich der oberflächennahen Phänomene (Überwachung von Deponien, Nachweis und Kontrolle von Schadstoffkreisläufen und so weiter) haben sich dabei eine Reihe neuer Methoden entwickelt: „Ground Penetrating Radar“, elektrokinematische Konversion und anderes mehr.
4) Produktion von Kohlenwasserstoffen und deren Speicherung in porösen Reservoiren sind Vorgänge, die zeitlich und räumlich kontrolliert werden müssen. Ziel ist dabei eine verbesserte Effektivität bei Gewinnung und Ausbeutung sowie die verlust- und risikofreie Speicherung von Nutzgas. Ein- und Abpumpen von Gas aus dem Speicher ändert sowohl die physikalischen Eigenschaften der Speicher (Porosität, Permeabilität, Temperatur, Druck), als auch deren geochemische Charakteristika. Änderung der physikalischen Parameter sind mess- und invertierbar mit seismischer und geoelektrischer Tomographie, die wiederholt durchzuführen ist. Die damit dokumentierbaren zeitlichen Veränderungen müssen mit den geochemischen Analyseergebnissen kompatibel sein. Felsmechanische Änderungen der Medien (Stabilität) äußern sich in zu überwachender mikroseismischer Aktivität. Durch das schnelle Aus- und Einlagern von Gasmengen kommt es zu physikalischen und chemischen Prozessen, die den Speicher gefährden können. Bekannt sind zum Beispiel in Speichern mit salinarem Haftwasser Salzausfällungen in der Nähe der Sonden, die bei Austrocknung des Speichers durch das eingepresste Gas entstehen. Die mechanische Beanspruchung des Speichers, hervorgerufen durch den schnellen Druckwechsel, wirft weitere Fragen auf. An Vorstudien aus dem Bereich Geophysik ist das augenblicklich unter Federführung der DGMK durchgeführte Projekt GWC zu nennen, das sich mit allen Aspekten der Erkennung des Gas-/Wasserkontaktes beschäftigt. Die hochauflösende Rekonstruktion der räumlichen Verteilung von Porosität und Durchlässigkeit, sowie deren zeitliche Änderung etwa durch den Transport von Schadstoffen kann nur durch kombinierten Einsatz geophysika-
6) Die 4-D-Tomographie zur Kartierung des Wärmeabbaus in stimulierten geothermischen Systemen (EGS, Enhanced Geothermal Systems) ist ein Meilenstein auf dem Weg zur systematischen Nutzung geothermischer Energie in Hochenthalpie Systemen. Unter Verwendung einer zeitlich wiederholten Durchschallung eines geothermischen Reservoirs lässt sich ein seismisches Abbild der Reservoirentstehung und des längerfristigen Auskühlungsverhaltens im Anlagenbetrieb gewinnen. Die während der Reservoirentstehung (Stimulation) aktiven physikalischen Prozesse verursachen lokale Veränderungen der Gesteinsparameter (unter anderem Kluftdichte, Rissweiten, Fluidgehalt und Fluiddruck, Spannungszustand), die sich über seismische Parameter abbilden lassen. Dabei erfordert die geringe Größenordnung dieser Effekte den Einsatz hochauflösender Abbildungsmethoden, die zum Beispiel die relativen zeitlichen Veränderungen dynamischer und kinematischer Wellenformeigenschaften erfassen. Solche Verfahren wurden bereits erfolgreich im Rahmen des Kontinentalen Tiefbohrprogramms getestet, zum Beispiel in Form einer Bestimmung der zeitlichen Veränderungen der Gesteinsanisotropie mittels Scherwellenaufspaltung und können durch den mit Oberflächeninstrumenten kombinierten Einsatz vertikaler Geophonketten (Crosshole Tomographie) in eine 3-dimensionale Tomographie umgesetzt werden. Auf diese Weise kann der Ist-Zustand eines geothermischen Reservoirs zu Beginn des Wärmeabbaus bestimmt werden. Während des Anlagenbetriebs führt die lokale Wärmeentnahme im Reservoir zu weiteren Veränderungen der Gesteinseigenschaften (zum Beispiel Dichte, Spannungszustand, thermisch induzierte Rissbildung), die sich durch zeitlich wiederholte Durchschallungsmess-
5) Schadstoffausbreitung und Sicherung des Grundwassers stellen ein weiteres Beispiel für ein System mit kurzer Zeitkonstante dar. An einem konkreten Objekt, einem Versuchsfeld des FZJ in Krauthausen wird über zahlreiche Bohrungen ein ständiges Monitoring vorgenommen. Ziel ist das Verständnis von Schadstofftransport an der Grenze des ungesättigten Bereichs. Das punktuelle Monitoring über Bohrungen wird ergänzt durch geoelektrische Tomographie und Flachseismik, um die Inhomogenitäten des Systems im Untergrund zu bestimmen. Über weitere denkbare Erkundungs- und Modellierungsverfahren ließe sich hier wegen der Datendichte und der zur Kalibrierung geeigneten Randbedingungen ein exemplarisches Testobjekt entwickeln, um Verfahren der Joint Inversion in diesem Anwendungsbereich einzusetzen und zu testen.
ungen bestimmen und in eine 4-dimensionale Tomographie überführen lassen. Durch integrative thermo-hydraulische Modellierung können diese Beobachtungen zu einem dynamischen Strukturmodell zusammengefasst werden. Damit steht erstmals in Aussicht, die räumliche Temperaturverteilung und deren zeitliche Änderung im Zuge des Wärmeabbaus zu kartieren. Das in den letzten Jahren aufgekommene verstärkte Interesse an regenerativen Energieressourcen hat der Entwicklung der Hochenthalpie-Geothermie einen großen Aufschwung bereitet. Dieser äußert sich nicht zuletzt in der finanziellen Förderung nationaler (Bad Urach, Groß-Schönebeck, Hannover, Bochum, Speyer, Offenbach, Unterhaching) und europäischer Forschungsprojekte (Soultz-sous-Foret, Frankreich), sondern auch in der wachsenden Zahl von Industriepartnern. Entgegengesetzt dem verstärkten finanziellen Engagement tut sich aber eine Kluft zwischen wirtschaftlichem Interesse und dem zur Verwirklichung solcher Systeme erforderlichem wissenschaftlichen Know-how auf. Insbesondere im Hinblick auf die bereits im Aufbau befindlichen Multi-Bohrlochsysteme, die auf einen systematischen Wärmebergbau ausgelegt sind, ist ein detailliertes Verständnis der raum-zeitlichen Temperaturentwicklung unabdingbar, um das Risiko nicht-produktiver Bohrungen zu verringern. In engem Industriekontakt kann dieses Projekt eine Kooperationsplattform schaffen, um unter Ausnutzung der Infrastruktur bestehender Geothermischer Systeme das für einen wirtschaftlichen Anlagenbetrieb notwendige wissenschaftliche Know-how zu liefern.
Vernetzung Eine enge Bindung an mehrere der anderen Teilthemen dieses Rahmenprogramms besteht vor diesem Hintergrund vor allem für die Themen „Kontinentränder“, „Beckenentwicklung“, „Desasterforschung“, „Ressourcenforschung“ und „Geotechnik“. Querbeziehungen zu laufenden Vorhaben sind vielfältig, wie etwa zu DEKORP-Vorhaben (zum Beispiel ANCORP, Nordostdeutsches Becken, TRANSALP), den anlaufenden ICDP-Projekten (als systematische Presite Surveys), marinen geowissenschaftlichen Forschungsprogrammen (zum Beispiel CINCA, CONDOR, passive Ränder des Atlantik et cetera), die alle von BMBF oder DFG gefördert werden beziehungsweise wurden. Das vorgeschlagene Programm zur Tomographie entwickelt damit insgesamt geowissenschaftliche Schlüsselmethoden gleichermaßen für die geowissenschaftliche Forschung wie für die industrielle Anwendung. Der Industriebezug reicht bei diesem methodisch orientierten Bereich dabei von einem direkten Interesse an der Erzeugung eines bestimmten nutzbaren methodischen Wissens bis hin zur möglichen Beteiligung an gemeinsamen Projekten, die diese Methoden direkt an Objekten von industriellem Interesse einsetzen (zum Beispiel Monitoring von KW-Produktion und -Speichern, Abbildung und Monitoring von Schadstoffausbreitung et cetera). Schließlich besteht eine besondere Bedeutung
für die Praxis in der Tatsache, dass das in diesem Bereich an universitären und außeruniversitären Einrichtungen generierte methodische Know-how in Form neuer Verfahren und speziell ausgebildeten Nachwuchses entwickelt und bereitgestellt wird.
39
40
Sedimentbecken: Die größte Ressource der Menschheit
S
edimente sind Gemenge verschiedener Minerale und organischer Substanzen, die an der Erdoberfläche in Wechselwirkung mit Atmosphäre, Hydrosphäre und Biosphäre abgelagert worden sind. Beispiele sind Sande, Tone, Salze und Kalkschlämme. Bei der Versenkung in größere Erdtiefen von einigen 100 Metern bis wenigen Kilometern entstehen daraus Sedimentgesteine wie Sandstein, Tonstein oder Kalkstein. Sedimentbecken sind Senkungsstrukturen an der Erdoberfläche, die über sehr lange Zeiträume große Mengen an Sediment (meist über einen Kilometer mächtig) aufgenommen haben. Dazu zählen – zumindest im weiteren Sinne – auch die meisten Kontinent/Ozean-Übergänge (Kontinentränder), an denen Sedimente zum Teil in großer Mächtigkeit auftreten. Sedimentbecken sind im Vergleich zur Gesamtausdehnung der Erdkruste klein. Sie bergen aber den mit Abstand größten Teil der für die Menschheit wichtigen Ressourcen. Dazu gehören in erster Linie die fossilen Energieträger, die zu 90 % die Weltenergieversorgung sicherstellen. Weiterhin sind sie wichtiger Standort für Deponien hochtoxischer und radioaktiver Abfälle und werden als Speicher für Gase, Flüssigkeiten und Feststoffe benutzt. Schließlich kann aus Sedimentbecken geothermische Energie gewonnen werden. Angesichts einer auf die 10-Milliarden-Marke zustrebenden Weltbevölkerung und der raschen Entwicklung der Volkswirtschaften in den bevölkerungsreichen Staaten Südostasiens wird der Energieversorgung, der Rohstoffsicherung und der Deponierung toxischer und radioaktiver Abfälle eine steigende Bedeutung zukommen. Eine nachhaltige Nutzung der Sedimentbecken setzt aber ein umfassendes Verständnis der hier ablaufenden Prozesse und die Entwicklung beziehungsweise Weiterentwicklung numerischer Modelle zur Simulation dieser Prozesse voraus. Das FuE-Programm GEOTECHNOLOGIEN schafft dafür die notwendigen Grundlagen. In Deutschland besteht damit die sehr gute Chance, über eine koordinierte Forschung eine starke Position in diesem Bereich aufzubauen und zu einem Technologieexporteur in diesem Zukunftsmarkt zu werden.
41
Themenschwerpunkt: „Sedimentbecken – Die größte Ressource der Menschheit“ Förderstatus BMBF: Zur Zeit keine Förderung des BMBF Förderstatus DFG: Schwerpunktprogramm „Dynamik sedimentärer Systeme unter wechselnden Spannungsregimen am Beispiel des zentraleuropäischen Beckensystems“ seit 2002. Ziel: Quantifizierung der Prozesse zur Entstehung und Entwicklung von Sedimentbecken und Weiterentwicklung von Erkundungs- und Modellierungstechnologien.
42
Beteiligte Institutionen: Interdisziplinäre Beteiligung von Universitäten und außeruniversitären Forschungseinrichtungen.
Was sind Sedimentbecken und welche Typen gibt es?
S
edimentbecken kommen in den verschiedensten geodynamischen Positionen vor. Am markantesten sind die großen Riftzonen in den Kontinenten (Oberrheingraben, Afrikanisches Grabensystem), in deren Zusammenhang häufig thermische Anomalien bis hin zu vulkanischer Aktivität auftreten. Neben einer möglichen geothermischen Nutzung besteht im Zusammenhang mit Vulkanismus häufig die Gefahr von Naturkatastrophen, deren Früherkennung eine aktuelle Zielstellung ist. Sedimentbecken entstehen daneben entlang von Scherzonen wie zum Beispiel in Nordanatolien oder am San-Andreas-Störungssystem in Kalifornien. Obwohl dieser Beckentyp meist kleinräumig angelegt ist, spielt er für die genannten Nutzungsformen doch eine wichtige Rolle. Sedimentbecken treten auch in kompressiven Regimen auf, wie zum Beispiel das süddeutsche Molassebecken, das ein hohes Nutzungspotenzial tiefer Grundwässer aufweist. In großräumigen tektonischen Zusammenhängen zeigt sich, dass das Verständnis der Bildungsbedingungen von Gräben und Becken im kontinentalen Bereich ganz wesentlich für eine geodynamische Interpretation ist. Im ostasiatischen Raum kommen Becken sowohl im Hochland von Tibet vor als auch entlang einer großen Scherzone, die von Tibet bis weit nach Sibirien reicht. Kompression und Extension existieren hier nebeneinander und zwar in einer Form, die durch die klassische „ozeanische“ Plattentektonik nicht hinrei-
chend erklärt werden kann. Schließlich gibt es intrakontinentale Becken oder Depressionen, deren Bildungsmechanismen bis heute kaum verstanden sind, die aber besonders intensiv genutzt werden, wie zum Beispiel die Zentraleuropäischen Becken. Sedimentbecken haben gemeinsam, dass sie lange Zeit als Depressionen aktiv sind und dadurch Sedimente einfangen und akkumulieren. Sie stellen damit die zentralen Bereiche der Erde dar, in denen erdgeschichtliche Prozesse wie Klima- und Meeresspiegeländerungen sowie tektonisch bedingte Reliefänderungen dokumentiert sind. Durch sedimentologische und sedimentpetrographische Analysen ist es häufig möglich, Aussagen über die Herkunft der Sedimente, ihr Ablagerungsmilieu und über Abtragungsgeschwindigkeiten im Umland der Becken zu machen sowie Prognosen über die räumliche Verteilung und den Zustand von Gesteinen zu erstellen. Die besondere Bedeutung von Sedimentbecken hängt auch mit dem hohen Anteil metastabiler Phasen sowie mit ihrer hohen Porosität und Permeabilität zusammen. Ersteres bewirkt ein hohes chemisches Reaktionspotenzial, das neben vielem anderem auch die Bildung von Erdöl und Erdgas ermöglicht. Letzteres führt zu einem relativ raschen Transport der Flüssigkeiten und Gase im Porenraum, unter anderem mit der Konsequenz der Akkumulation von Erdöl und Erdgas in Lagerstätten und dem Austausch von klimarelevanten Treibhausgasen mit der Atmosphäre. Da Becken nur sehr oberflächennah direkt zugänglich sind, sind die Untersuchungsmethoden seit langem interdisziplinär angelegt. Geophysiker, Geologen und Geochemiker müssen hier zusammenarbeiten. In jüngerer Zeit kommen noch die Geodäsie und numerische Prozesssimulation hinzu. Damit eröffnet sich ein Feld zur Entwicklung neuer Geotechnologien durch Kombination fachlich unterschiedlicher Ansätze und Vorgehensweisen.
Wichtige Eigenschaften und Prozesse Sedimentbecken und schon einzelne Sedimentgesteine sind außerordentlich komplex aufgebaut, und eine Vielzahl physikalischer und chemischer Prozesse spielen sich in ihnen ab. Daher wird es auch in Zukunft nicht möglich sein, Sedimentbecken in jedem Detail zu beschreiben oder gar ihre Entwicklung über Zeiträume von Millionen von Jahren zu simulieren. Es sind jedoch einige wenige Eigenschaften und Prozesse, die für das Erscheinungsbild sedimentärer Becken und vor allem für ihre ökonomische Bedeutung besonders wichtig sind. Dazu gehören Geometrie und strukturelle Entwicklung, die Temperaturverteilung und die Dynamik der Temperaturentwicklung, die Gesteinszusammensetzung und ihre Veränderung durch diagenetische Prozesse, insbesondere die Zusammensetzung von Flüssigkeiten und Gasen (vor allem Wasser, Erdöl, Erdgas, Kohlendioxid) und ihr Transport durch den Porenraum der Gesteine. Beispiele für die Wichtigkeit der Temperatur sind ei-
nerseits die thermisch gesteuerte Bildung von Erdöl und Erdgas sowie die Entstehung von Kohlen (InkohlungsReihe: Torf-Braunkohle-Steinkohle-Anthrazit) und andererseits die anorganischen Lösungs- und Fällungsprozesse im Porenraum von Sedimentgesteinen, wie Sandsteinen und Karbonaten, die deren Speichereigenschaf-
ten als Reservoir für Wasser, Erdöl oder Erdgas entscheidend prägen. Daher ist es von überragender Bedeutung zum Verständnis von Sedimentbecken, die Temperaturverteilung in ihrem heutigen Zustand und die sie steuernden Parameter und Prozesse zu erfassen und zu erforschen. Die Mineraloberflächen und Reaktionen an
43
Abb. 18: Internstruktur des Nordostdeutschen Beckens.
44
ihnen spielen dabei ebenfalls eine bedeutsame Rolle. Ebenso wichtig ist es, die zeitliche Entwicklung der Temperatur zu verstehen, da diese für die Bildung und Akkumulation von Erdgas und Erdöl, für Lösungs- und Fällungsprozesse sowie für den Transport von Flüssigkeiten und Gasen entscheidend ist. Hierzu dienen eine Reihe von mehr oder weniger verlässlichen Paläo-Temperaturindikatoren. Flüssigkeiten und Gase im Porenraum von Gesteinen sind sehr unterschiedlich zusammengesetzt. Während der größte Teil des Porenraums wassergesättigt ist (und einen sehr unterschiedlichen Wasserchemismus aufweist), können auch Erdöl, Erdgas, wie Methan und Äthan, sowie anorganische Gase, wie Kohlendioxid, Stickstoff und Schwefelwasserstoff auftreten, oder vorherrschen. Die Bedeutung der Ressourcen Erdöl und Erdgas ist evident und es wird in Zukunft zur Deckung des Bedarfs an diesen Energieträgern notwendig sein, zur Aufsuchung und Produktion in immer größere Tiefen und in immer entlegenere Regionen der Erde vorzudringen. Um die Bohrkosten, die heute für Explorationsbohrungen meist zwischen 10 und 50 Millionen Dollar liegen, auf möglichst niedrigem Niveau zu halten, werden moderne „High-Tech“-Verfahren immer wichtiger, beispielsweise der Einsatz von geophysikalischen und geochemischen Methoden. Dazu gehören unterschiedliche Simulationsverfahren, die zum Beispiel die Mobilität und Reaktivität von Erdöl und Erdgas im Porenraum von Sedimentgesteinen nachvollziehen. Ebenso wichtig wie die Dynamik der Erdöl- und Erdgasbildung und -akkumulation ist die Zusammensetzung von Porenwässern und ihr Transport. Porenwässer sind nicht nur Träger geothermischer Energie, sie bewirken über Fällungs- und Lösungsreaktionen auch die „Verstopfung“ und „Reinigung“ poröser Speichergesteine. Auch die im Zusammenhang mit der Endlagerung radioaktiver und hochtoxischer Abfälle anhängige Frage der Salzlaugung durch Porenwässer und der Barrierewirkung toniger Sedimente ist von ökologisch und ökonomisch herausragender Bedeutung. Unter den anorganischen Gasen nimmt Kohlendioxid eine wichtige Rolle ein, zumal Verfahren zur Verbringung von anthropogen erzeugtem CO2 in Untertage-Speicher bereits entwickelt und getestet werden. Kohlendioxid trägt über seine relativ hohe Wasserlöslichkeit und Reaktivität zu verschiedenen Reaktionen im Porenraum der Gesteine bei. Hier besteht Forschungsbedarf, bevor zusätzliches anthropogen erzeugtes CO2 in großer Menge in Sedimentbecken eingebracht wird.
Stand der Entwicklung und Anwendung Das Wissen um die Entwicklung der Sedimentbecken hat in den vergangenen Jahrzehnten sehr zugenommen. Trotzdem sind wichtige Fragen der Beckenanalyse, Beckenevolution und Simulation noch ungelöst. Diese Probleme legen Defizite in unserem grundlegenden Naturverständnis offen, deren Beantwortung direkt mit dem menschlichen Streben nach Daseinsvorsorge gekoppelt
ist. In Deutschland gibt es eine Reihe von Instituten und Institutionen, die sich mit der Dynamik und/oder Modellierung sedimentärer Becken beschäftigen. Dazu gehören mehrere Universitätsinstitute, die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) und das GeoForschungsZentrum Potsdam (GFZ). An den deutschen Universitäten werden in erster Linie sedimentologische und petrographische Aspekte der Beckenentwicklung untersucht. Ein Beispiel ist die Universität Jena, an der kohärente, petrographische und geochemische Datensätze zur Kalibration von Fluidflussund Paläotemperatur-Modellierungen erstellt werden. Die Arbeiten konzentrieren sich auf großräumige, interformationale Fluidbewegungen und diagenetische Konsequenzen vor allem in klastischen Speicherformationen. Die thermochronologische Bedeutung neu gebildeter und datierbarer Tonminerale steht dabei im Vordergrund des Interesses. Regionaler Schwerpunkt sind das Norddeutsche Becken und andere zirkumatlantische Becken, wie zum Beispiel das AraganaBecken/Marokko. Der stratigraphisch-zeitliche Schwerpunkt liegt in Perm und Trias einerseits, und der frühen Atlantik-Öffnungsphase in Keuper bis Dogger andererseits. An der RWTH Aachen wird die Entwicklung sedimentärer Becken über geologische Zeiten, zum Teil im Zusammenhang mit der Bildung und Akkumulation von Erdöl- und Erdgaslagerstätten, untersucht. Dazu werden verschiedene Entwicklungspfade beschritten. Zum ersten wird physikalische und chemische Forschung zum Transportverhalten von Flüssigkeiten und Gasen in verschiedenen Gesteinen unter natürlichen Bedingungen und zur Bildung und Reaktivität von Erdöl- und Erdgaskomponenten betrieben. Die jeweiligen Ergebnisse werden in die bestehende Simulations-Software integriert. Zweitens werden die Simulationsprogramme auf ihrem jeweils neuesten Stand getestet, indem Fallstudien für verschiedene Sedimentbecken durchgeführt werden. Dies geschieht sowohl in Kooperation mit der deutschen Erdöl- und Erdgasindustrie als auch im Bereich der Grundlagenforschung, zum Beispiel im Rahmen von Schwerpunktprogrammen der DFG. Von besonderer Bedeutung ist die Zusammenarbeit mit der Firma Integrierte Explorationssysteme Jülich (IES), durch die eine rasche Umsetzung der gewonnenen Erkenntnisse in marktfähige Produkte erfolgen kann. Drittens wird die strukturelle und sedimentäre Entwicklung von Sedimentbecken unter Nutzung und Weiterentwicklung numerischer Simulationsprogramme und unter besonderer Berücksichtigung der Salztektonik modelliert. In der BGR Hannover wurde eine detaillierte strukturelle Analyse des Norddeutschen Beckens mit besonderer Beachtung halokinetischer Bewegungen und von Rifting- und Inversionsprozessen erarbeitet. Als Resultat dieser Arbeiten wurde ein Geotektonischer Atlas von NW-Deutschland in digitaler Form publiziert. Die regionale Anbindung an den Ostteil des Norddeutschen Beckens ist in Bearbeitung. Zahlreiche regionale Untersuchungen liegen zur Kohlenwasserstoff-Genese und Migration in Norddeutschland vor. Neben Arbeiten zur Petrographie, Geochemie und Reife der Muttergesteine
und ihrer Produkte werden Beckenmodelle zur Subsidenz und zur Reifeentwicklung des sedimentären organischen Materials durchgeführt. Ein weiterer Schwerpunkt liegt auf der Ermittlung des geothermischen Potenzials in Deutschland. Die dabei gewonnenen Informationen bilden eine Grundlage für verschiedene lokale Geothermieprojekte. Die Bestimmung des Poren- und Kavernenspeicherpotenzials in Nordwest-, Nordost- und Süddeutschland ist von großer Bedeutung für die Speicherung von Erdgas, für die Deponierung von flüssigen Abfallstoffen sowie potenziell für CO2 aus der Verbrennung fossiler Energierohstoffe. Wichtige internationale Erfahrungen wurden bei der geologisch-geophysikalischen Analyse der Struktur- und Beckenentwicklung sowie der Kohlenwasserstoff-Entstehung in Kontinentalrandbecken auf beiden Seiten des Südatlantiks, im Südpazifik vor Südamerika, in der Arktis und in anderen Erdteilen gesammelt. Dabei ist die numerische Beckensimulation ein integraler Bestandteil dieser Arbeiten. Am GFZ Potsdam wird an der Erstellung von dreidimensionalen Beckenmodellierungs-Systemen unter Berücksichtigung der Zeit gearbeitet, wobei die Integration geologischer, geophysikalischer und chemischer Daten und Konzepte im Vordergrund steht. Ein zentrales Thema ist die Erfassung und Modellierung der Interaktion von Temperatur, Porenflüssigkeit und chemischen Prozessen. Ein Schwerpunkt befasst sich mit der Rolle von elektrokinetischen Effekten auf geochemische Prozesse und der möglichen Nutzung dieser Effekte. Ein weiteres Thema ist das Langzeitverhalten von Becken und ihrer Füllung unter Berücksichtigung sedimentärer und tektonischer Prozesse. Die Arbeiten werden in Kooperation mit der Erdöl- und Erdgasindustrie, Softwareentwicklern (WASY, Berlin), verschiedenen Universitäten (DFG gefördert), der BGR und dem Landesamt für Geologie und Rohstoffe Brandenburg (LGRB), sowie im Rahmen von nationalen und internationalen Programmen durchgeführt, so dass grundlagenorientierte Forschung eng mit der Anwendung verknüpft wird. Auch auf die Entwicklung von Sedimentbecken gerichtet sind die Untersuchungsprogramme ozeanographischer Institutionen wie GEOMAR und Alfred-Wegener-Institut. Die Arbeitsziele dieser Institute liegen allerdings vorrangig in den jüngsten marinen Ablagerungen und den darin dokumentierten Informationen zu Paläoklima, Paläodynamik ozeanischer Wassermassen und in der Interaktion Hydro-Bio-Atmosphäre. Diese Institutionen sind bereits langjährig in Kooperation und in internationale Forschungsprogramme eingebunden. Gleiches gilt für das in Neugründung befindliche Institut für sedimentäre Systeme am FZ Jülich, das sich künftig ebenfalls vor allem oberflächennahen Sedimenten widmen wird. Zwischen den oben genannten Arbeitsgruppen und Instituten, die sich mit Dynamik und/oder Modellierung sedimentärer Becken befassen, sollen die Kooperation und integrierende Programme unter Einbindung der Industrie gestärkt werden. Im Rahmen der in diesem Zusammenhang besonders wichtigen DFG-Forschungsförderung über Sonderforschungsbereiche und Schwer-
punktprogramme findet Sedimentbeckenforschung und modellierung zunehmend Eingang. So startete im Jahre 2002 im Rahmen des FuE-Programms GEOTECHNOLOGIEN das neue DFG-Schwerpunktprogramm „Dynamik sedimentärer Systeme unter wechselnden Spannungsregimen am Beispiel des zentraleuropäischen Beckensystems“ (DFG SPP 1135). Anwendung finden diese Forschungsarbeiten auf verschiedenen Ebenen: • in der deutschen und internationalen Erdgas- und Erdölindustrie; • in Firmen, die Softwareentwicklung betreiben, speziell für den internationalen Erdöl- und Erdgasmarkt; • in Firmen und Institutionen, die sich mit Untertagespeichern und -deponien beschäftigen (siehe Kapitel „Erkundung, Nutzung und Schutz des unterirdischen Raumes“); • in Firmen, die sich mit der Nutzung geothermischer Energie beschäftigen; • in Forschung und Lehre, da die Anwendung und Weiterentwicklung eines geo-dynamischen Prozessverständnisses und von Simulationsprogrammen heute fester Bestanteil einer anwendungsorientierten, geowissenschaftlichen Ausbildung sein sollten und zu einem ganzheitlichen physikalisch und chemisch fundierten Verständnis geologischer Prozesse führen. Die Erdöl- und Erdgasindustrie ist mit ihrem „Upstream“-Bereich (Exploration und Produktion) weltweit eine der umsatzstärksten Branchen überhaupt. Die Rolle Deutschlands in diesem Marktsegment ist seit Jahren unbefriedigend, insbesondere im Vergleich zu den europäischen Nachbarn (zum Beispiel Niederlande, Belgien, Frankreich, Italien, Österreich), die ebenfalls über keine sehr großen nationalen Reserven verfügen. Noch weit bedeutender ist die Erdöl- und Erdgasindustrie in den rohstoffreichen Staaten Norwegen und Großbritannien sowie in den USA, Russland und China entwickelt. Die Erdöl- und Erdgasindustrie wird auch in Zukunft weltweit und in Deutschland eine Schlüsselrolle für die Energieversorgung spielen. Durch den Einsatz moderner geowissenschaftlicher Forschung lassen sich die Risiken, die durch die zunehmend schwierigen Explorationsbedingungen auftreten, mindern. Insbesondere Forschung auf dem Gebiet der Sedimentbecken-Dynamik und -Modellierung kann diese Entwicklung unterstützen. Umgekehrt profitiert die Forschung auf dem Gebiet der Sedimentbecken-Dynamik und -Modellierung entscheidend von der Zusammenarbeit mit der Erdöl- und Erdgasindustrie, da nur sie über die notwendigen seismischen Daten und Bohrungsinformationen verfügt, die für eine Eichung der Modelle notwendig sind. Gute Beispiele für eine derartige Zusammenarbeit sind das 1997 abgeschlossene Programm DEKORP 2000, in dessen Rahmen die umfangreichen Daten der Ostdeutschen Erdgasindustrie teilweise genutzt wurden und das
45
46
2002 angelaufene DFG-Schwerpunktprogramm „Dynamik sedimentärer Systeme“ (DFG SPP 1135). Im Umfeld des Forschungsgebietes Beckenentwicklung und Beckenmodellierung gibt es einen deutlich zunehmenden Bedarf an Beratung und Software-Entwicklung durch kleine und mittelgroße Unternehmen. Diese decken heute zum Beispiel einen hohen Anteil des Know-how-Bedarfs der Erdöl- und Erdgasindustrie gerade im Grenzbereich Forschung/praktische Anwendung ab. Diese Zusammenhänge gelten auch für die Bereiche Geothermie, Deponien und Tiefenwasseranalytik.
Forschungsschiffen und Bohranlagen noch verstärkt. Von besonderer Bedeutung, nicht nur in Bezug auf den wirtschaftlichen Nutzen eines Forschungsprogramms Sedimentbeckenentwicklung, Sedimentbeckendynamik, Sedimentbeckenmodellierung, ist die Einbindung der Industrie und ihrer jeweiligen Interessen. Im Gegenzug kann erwartet werden, dass Industriefirmen geeignete Daten (Seismik, Bohrungsunterlagen) zur Verfügung stellen, die aus Kostengründen innerhalb des hier vorgeschlagenen Rahmens nicht finanziert werden können.
Vernetzung
Notwendige Forschungs- und Entwicklungaufgaben
Es besteht eine enge Verknüpfung der Sedimentbeckendynamik mit geophysikalischen Programmen, sofern sie sich auf Sedimentbecken beziehen. Beispiele sind das reflexionsseismische DEKORP-Profil von Rügen bis zum Harz (inklusive der begleitenden geowissenschaftlichen Forschungsprojekte) und das reflexionsseismische Profil über die Ostalpen (TRANSALP) mit den südlichen und nördlichen Vorlandbecken. Weiterhin stellen die Ergebnisse einiger wichtiger, meist BMBFgeförderter Projekte wie „Litaseis“, „Untersuchungen aktiver und passiver Kontinentalränder“, „Geotektonischer Atlas“ und „Tiefengas“ mögliche Anknüpfungspunkte an künftige Aktivitäten dar. Im Bereich der Forschungsprogramme der EU gibt es Verbindungen zu den Forschungen auf dem Gebiet nichtnuklearer Energie. Zu den DFG-geförderten Programmen mit engem Bezug zur quantitativen Sedimentbeckenforschung gehören unter anderem die Schwerpunktprogramme „Integrated Ocean Drilling Program/Ocean Drilling Program“ (SPP 527) und „Internationales Kontinentales Bohrprogramm“ (ICDP, SPP 1006), sofern sie Sedimentbecken behandeln sowie das Graduiertenkolleg 273 „Einwirkung fluider Phasen auf Locker- und Festgestein“, Heidelberg. Es besteht eine enge Beziehung zu mehreren anderen hier vorgestellten Projekten, insbesondere „Tomographie der Erdkruste“, „Stoffkreisläufe“, „Gashydrate“ und „Kontinentränder“. Darüber hinaus besteht ein enger Bezug zu dem GEOTECHNOLOGIENSchwerpunkt „Erkundung, Nutzung und Schutz des unterirdischen Raumes“, in dessen Rahmen die CO2-Speicherung im Untergrund bearbeitet werden soll. Forschung zur Entwicklung von Sedimentbecken und die begleitende Entwicklung numerischer Simulationstechniken erfordern notwendigerweise das Zusammenwirken verschiedener Geo-Disziplinen, wie Informatik, Modellierung, Strukturgeologie, Geochemie, Geophysik, Isotopengeochemie, Organische Petrographie, Meeresforschung, Sedimentologie, Mineralogie und Paläontologie. Sie hat dadurch das Potenzial, eine stärkere Integration der Einzeldisziplinen in ein „Gesamtkonzept Geowissenschaften“ zu bewirken. Die zu erwartenden Synergieeffekte werden durch die gemeinsame Nutzung von geochemischen Labors, geophysikalischen Gerätepools, Großgeräten, wie Rechenzentren, oder den möglichen Einsatz von
Es ist das Ziel der vorliegenden Konzeption, die Prozesse der Beckenentstehung und -entwicklung zu analysieren, quantitativ zu fassen, mit den existierenden Daten zu harmonisieren, die komplexen Vorgänge vierdimensional rechnergestützt zu simulieren und parallel dazu die bestehenden Simulationsprogramme weiterzuentwickeln. Sedimentbecken können nur in der Kombination geologischer, geophysikalischer und geochemischer Methoden und Daten erkundet werden. Ein Modell der Struktur und der Entwicklung eines Beckens erfordert, diese Daten in konsistente Modellierungssysteme zu integrieren. Diese können dann überprüfbare Prognosen zu den möglichen optimalen Nutzungsformen erstellen. Hier besteht noch erheblicher Bedarf zur Weiterentwicklung vorhandener Geotechniken und zur Entwicklung neuer Technologien. Solche Schritte waren in der jüngeren Vergangenheit zum Beispiel die Entwicklung der 3-D-Seismik als ein wesentlicher Beitrag zur Tomographie der Erdkruste sowie zur Entwicklung von 2-D- und 3-D-Modellierungssystemen, die zunehmend die Anforderung erfüllen, geologische und geophysikalische Daten zu integrieren und eine direkte und konsistente Interpretation zu ermöglichen. Sie stellen damit auch ein wichtiges Werkzeug zur Erforschung der Dynamik sedimentärer Becken dar. Gegenwärtig sind diese Verfahren und Systeme wegen zu aufwändiger Prozessierung häufig noch sehr teuer und damit auf einen kleinen Nutzerkreis beschränkt. Im Bereich der Entwicklung neuer geochemischer und geophysikalischer Verfahren sowie der Software-Entwicklung besteht insbesondere die Möglichkeit, angewandte Forschung und Grundlagenforschung mit dem Ziel eines Technologietransfers zu betreiben sowie heute noch ungelöste globale und lokale geodynamische Probleme zu behandeln. Dazu gehören beispielsweise belastbare Prognosen über wirtschaftlich nutzbare Gesteine und Poreninhalte im tieferen Untergrund. Die einzelnen Forschungs- und Entwicklungsarbeiten werden hier in den vier Abschnitten „Beckengeometrie und Becken- und Strukturbildungsprozesse“, „Temperaturverteilung und ihre zeitliche Entwicklung“, „Transport von Flüssigkeiten und Gasen und ge-
koppelte chemische Prozesse“ und „Numerische Werkzeuge/Visualisierung/Parallelisierung“ behandelt. Nicht mit erfasst werden hier Fragen der Wechselwirkung zwischen Sedimentbecken und „unserer Umwelt“ (Atmosphäre, Hydrosphäre, Böden), die zum Beispiel für die Frage der Quellen und Senken der Treibhausgase Methan und Kohlendioxid besonders wichtig sind.
47
Abb. 19: Dreidimensionale Modellierung des Temperaturfeldes im Nordostdeutschen Becken.
Beckengeometrie und Becken- und Struktur-Bildungsprozesse
48
(1) Entwicklung geodynamischer Konzepte zur Beckenbildung. Eine Reihe von theoretischen Konzepten der Beckenbildung in intrakratonen und in Kontinentalrandbereichen stehen sich gegenüber. Diese Konzepte sind zu prüfen, weiterzuentwickeln und ihre jeweiligen thermischen Auswirkungen abzuschätzen zum grundsätzlichen Verstehen der Vorgänge in der Lithosphäre. (2) Erfassung, Analyse und Modellierung strukturbildender Vorgänge innerhalb intrakratoner Becken unter besonderer Berücksichtigung von Rift-in-Rift Strukturen, Permanentschwellen, Teilsenken, Inversions- und Salzstrukturen. Diese sind in ihrer Zeitlichkeit, ihrem Mechanismus und ihrer Steuerung aus der Erdkruste zu analysieren und durch Rückwärtsmodellierung auch in ihrer Massenbilanz zu erfassen. Dazu sollte auch die Bedeutung tiefreichender Störungen für den Fluidtransport quantifiziert werden. Die Ergebnisse dieses Forschungsbereichs sind von direkter Bedeutung für die KW-Prospektion. (3) Untersuchung von Vorlandbecken und ihren Strukturen. Vorlandbecken, wie das süddeutsche Molassebecken oder das nordwestdeutsche Oberkarbonbecken, weisen eine ganz andere polare Gesamtgeometrie und Internstrukturierung auf als intrakratonische Becken. Die Mechanismen der Strukturbildung sind zu analysieren und mit Strukturmodellierungsprogrammen zu quantifizieren. (4) Untersuchung von Becken an passiven und aktiven Kontinenträndern, insbesondere der Krustenstruktur, der Absenkungsraten und Sedimentationsvorgänge in den verschiedenen Beckentypen, der Auswirkungen von Mehrfach-Rifting auf die geothermische Entwicklung, der Bedeutung von Seitenverschiebungen und regionalen Abscherhorizonten für die Wegsamkeiten der Fluide und den Wärmetransport. Detailuntersuchungen des Interngefüges von Akkretionskeilen zur Bewertung von KW-Fallen. In allen genannten Feldern ist man auf die Verwendung verfeinerter geophysikalischer Werkzeuge zur 3-D/4-D-Tomographie des Untergrundes angewiesen.
Temperaturverteilung und ihre zeitliche Entwicklung Da die Temperaturverteilung und ihre Entwicklung über geologische Zeiten wichtige Steuerungsfaktoren der Sedimentbeckenentwicklung sind, kommt ihrer Behandlung besondere Bedeutung zu. Zu den wesentlichen Aufgaben gehören: • die systematische Erfassung der heutigen Temperaturverteilung in sedimentären Becken unter besonderer Berücksichtigung von Anomalien, wie
zum Beispiel Störungszonen, Beckenrändern, Salzdomen, vulkanischen Intrusiva. • Vergleich und Bewertung der verschiedenen Paläotemperatur-Indikationen (Geothermometer) und Aufbau einer schlagkräftigen Analytik durch gezielte Abstimmung und Kooperation der führenden Institute. Ein Manko besteht zur Zeit in Deutschland im Bereich der Spaltspuren-Untersuchung und Flüssigkeitseinschluss-Untersuchung soweit sie sich auf Sedimentbecken bezieht. Dagegen gibt es für den Bereich der organischen Reifeparameter in Jülich und Hannover etablierte Labors. • Weiterführung der systematischen Untersuchungen der Vitrinit-Reifung bei hohen Temperaturen und Korrelation der verschiedenen Reifeparameter (Vitrinitreflexion, Isotopie, Conodontenfarbe) für den Bereich der Hochdiagenese.
Transport von Flüssigkeiten und Gasen und gekoppelte chemische Prozesse (1) Verbesserung der Migrationsmodelle und Einbau verfeinerter Modelle für die Druckvorhersage durch a) Erarbeitung von theoretischen Konzepten zu einer alternativen Formulierung der Umsetzung der Flussgleichungen, b) getrennte Behandlung der Komponenten (Wasser, Methan, Stickstoff, Kohlendioxid, höhermolekulare Kohlenwasserstoffe) mit den entsprechenden Mischungsund Entmischungsfunktionen, c) verfeinerte Kompaktionskurven, speziell in geringpermeablen Schichten, d) Berücksichtigung des Druckaufbaus durch Erdgasbildung, e) Berücksichtigung von Adsorptionsansätzen bei den Expulsionsmodellen. (2) Verknüpfung der bestehenden Modelle zur chemischen Diagenese (Lösung und Fällung von Mineralphasen) mit Beckensimulationsmodellen, insbesondere in Hinblick auf die wichtigen Speichergesteine (Sandsteine). Entwicklung von Modellen zur Vorhersage von (positiven) Porositätsanomalien in großer Tiefe. (3) Wechselwirkung zwischen Salzablagerungen und Porenflüssigkeiten bei verschiedenen chemischen Potenzialen, Temperaturen und Drucken, besonders in Hinblick auf die abdichtenden Eigenschaften von Salz. Dieser Punkt ist sowohl für die Erdgas/Erdöl-Industrie als auch für die Betreiber von Untertagedeponien von großer Bedeutung. (4) Quantifizierung des advektiven/konvektiven Fluidtransportes zum Beispiel über Störungen und des gekoppelten Temperatureffektes. Es gibt Anzeichen dafür, dass während Phasen starker tektonischer Absenkung und/oder Hebung die Fließgeschwindigkeiten und die gekoppelten Lösungsund Fällungsprozesse intensiviert werden. (5) Fluidtransfer in niedrigpermeablen Schichten, wie Tonsteinen, in Hinblick auf ihre abdichtende Wirkung als „Cap Rocks“ für Kohlenwasser-
stofflagerstätten und Deponien. (6) Quantifizierung des Einflusses anthropogener Maßnahmen auf den Fluidhaushalt sedimentärer Becken und gekoppelter Fluid-Festkörper-Wechselwirkungen, zum Beispiel im Betrieb eines Porenspeichers oder einer geothermalen Anlage. Numerische Werkzeuge/Visualisierung/Parallelisierung (1) Verknüpfung von Strukturmodellierungsprogrammen, wie sie vor allem in England, Frankreich und den USA entwickelt und vermarktet werden, mit Beckensimulationsprogrammen. Erstere erlauben eine genauere paläogeometrische Rekonstruktion bei Volumenerhaltung beziehungsweise Massenerhaltung, allerdings ohne Temperatursimulation und strömungsmechanische Analyse. Das Zusammenführen der beiden Programmsysteme wird einen entscheidenden Schritt in Hinblick auf eine ganzheitliche Sedimentbecken-Betrachtung darstellen. (2) Entwicklung von 3-D-Programmen und ihre Visualisierung. Da hierbei letztlich vier Dimensionen betrachtet werden (3 Raumdimensionen und die Zeit), kommt insbesondere der Darstellung der Simulationsergebnisse eine große Bedeutung zu. (3) Anwendung von Parallelisierungsalgorithmen und verteilten Prozessen auf die in der Beckensimulation angewandten Gleichungen, um das parallele Abwickeln der Simulationsabläufe zu ermöglichen. Die entsprechende Zeitersparnis um einen Faktor 10 bis 100 ist ein entscheidender Schritt zur besseren Nutzung der Programme. Die Rechenzeiten betragen zur Zeit bereits zum Teil mehrere Tage und werden bei der kommenden Generation der 3-D-Programme ohne Parallelverarbeitung noch wesentlich länger sein. (4) Entwicklung neuer Modellierungs-Software und verstärkte Verknüpfung der BeckensimulationsSoftware mit anderen Programmen, wie zum Beispiel zur Interpretation der Seismik.
Regionale Aspekte Voraussetzung für die Entwicklung geodynamischer Konzepte und Modelle ist die Verfügbarkeit einer möglichst großen Menge relevanter, geowissenschaftlicher Daten. Daher bietet sich zur Bearbeitung das Norddeutsche Sedimentbecken als Teil der großen Zentraleuropäischen Becken an, das in der Vergangenheit intensiv geophysikalisch erkundet und abgebohrt wurde. Dieses Becken ist sowohl hinsichtlich des Verständnisses der Erdgas/Erdölbezogenen Fragen, als auch in Bezug auf die Frage von Untertagedeponien von besonders großer Bedeutung (Gorleben). Weiterhin wurde es in seinem Ostteil sehr erfolgreich mit einem großen geophysikalischen Programm seismisch vermessen (DEKORP Basin '96). Dabei ergaben sich überraschende Erkenntnisse über den tieferen Untergrund, sowohl hinsichtlich der
Kruste/Mantel Grenze, als auch in Bezug auf die Struktur des südlichen Beckenrandes. Das Norddeutsche Becken lässt sich außerdem in eine Reihe internationaler Forschungsprogramme integrieren. Daneben gibt es mit dem Oberrhein- und Niederrheingraben auch zwei junge, thermisch sehr interessante Sedimentbecken. Ein gänzlich anderer Beckentyp ist das nördliche Alpenvorland-Becken, das im Zuge der Alpenorogenese entstand und ein hohes Potenzial an nutzbarem Tiefenwasser aufweist. Ob in seinem südlichen, überschobenen Teil auch ein nutzbares Kohlenwasserstoff-Potenzial besteht, ist weitgehend unbekannt. Viele der für die oben skizzierten Forschungs- und Entwicklungsarbeiten notwendigen Daten sind für diese Becken vorhanden, so dass sie sich als Studienobjekte besonders anbieten. Allerdings gibt es zweifellos auch eine Reihe von Fragen, die auch die Bearbeitung anderer, zum Teil außereuropäischer Becken erfordern.
49
50
Gashydrate im Geosystem
N
atürliche Gashydrate sind feste, eisähnliche Verbindungen aus Gas (zum Beispiel Methan, Kohlendioxid, Schwefelwasserstoff) und Wasser, die sich unter natürlichen Bedingungen am Meeresboden und in den Permafrostgebieten Sibiriens und Alaskas bilden. Die bisher vorliegenden Untersuchungsergebnisse sprechen dafür, dass weltweit ungefähr doppelt so viel Kohlenstoff in Gashydraten gebunden ist wie in allen bekannten Lagerstätten fossiler Brennstoffe, (Kohle, Erdöl und Erdgas) zusammen. Da Gashydrate nur bei niedrigen Temperaturen und hohem Druck stabil sind, stehen sie in einem sensiblem Gleichgewicht mit den natürlichen Umgebungsbedingungen. Änderungen der Druckund Temperaturbedingungen können sehr schnell zur Destabilisierung von Gashydraten führen. Das fixierte Methan würde in die Atmosphäre entweichen und den Treibhauseffekt verstärken. In der Erdgeschichte gibt es dafür verschiedene Beispiele. Seit kurzem wird sogar eines der spektakulärsten Ereignisse der Erdgeschichte, das klimabedingte Aussterben ganzer Tier- und Pflanzenstämme an der Grenze Perm/Trias, mit der Freisetzung von Methan aus Gashydraten in Verbindung gebracht. In Meeresablagerungen können sich Gashydrate bevorzugt im wassergefüllten Porenraum zwischen den Sedimentpartikeln bilden. Hier wirken sie wie ein Zement, der die nur wenig verfestigten Meeresablagerungen verkittet und so zu der Stabilität der Kontinentalhänge beiträgt. Löst sich dieser Zement durch veränderte Druck- und Temperaturbedingungen auf, könnten große Rutschmassen in die Tiefsee gleiten und große Flutwellen (Tsunami) auslösen, mit verheerenden Folgen für die dicht besiedelten Küstenregionen. Die Gashydratforschung liefert damit wichtige Beiträge zur Polar- und Meeresforschung sowie zur Klima- und Umweltforschung. Deutschland war eines der ersten Länder weltweit, das ein eigenes Forschungsprogramm zur Untersuchung von Gashydraten initiierte. Die bisher erzielten Ergebnisse zeigen, dass deutsche Forschergruppen inzwischen auf mehreren Gebieten der Gashydratforschung eine internationale Spitzenstellung einnehmen. Dies schließt auch die Entwicklung neuer Technologien, insbesondere auf den Gebieten der Sensorik, Erkundungs-, Entnahme- und Gewinnungstechniken sowie des Anlagenbaus ein. In den kommenden Jahren gilt es, das erworbene Know-how weiter zu entwickeln und zielgerichtet einzusetzen.
51
Gashydrate – ein natürliches Phänomen Themenschwerpunkt: „Gashydrate im Geosystem“ Förderstatus BMBF: Förderung von 14 Einzel- und Verbundvorhaben. Fördervolumen: circa 15 Millionen Euro für eine erste 3-jährige Förderphase (2001-2003). Förderstatus DFG: Förderung von Einzelvorhaben durch die DFG. Ziel: Quantifizierung der Bedeutung von Gashydraten im globalen Kohlenstoffkreislauf, ihrer Klimawirksamkeit und ihres Risikopotenzials. Entwicklung innovativer Technologien auf dem Gebiet der Sensorik und des Anlagenbaus.
52
Beteiligte Institutionen: Interdisziplinäre Beteiligung von Universitäten, außeruniversitären Forschungseinrichtungen und KMU.
Abb. 20: Langzeitobservatorien („Lander“) an Deck des FS SONNE, die im Rahmen der Projekte LOTUS und OMEGA konstruiert wurden.
G
ashydrate, auch Clathrate genannt, sind natürlich vorkommende Feststoffe aus Wasserund Gasmolekülen ähnlich wie Trockeneis. Unter bestimmten Druck- und Temperaturbedingungen bilden die Wassermoleküle ein festes Gitter mit Hohlräumen (Käfige), in denen Gasmoleküle, wie Methan und leichtere Kohlenwasserstoffe oder Kohlendioxid, aber auch Schwefelwasserstoff, eingeschlossen sein können (Abb. 21). Das in den Käfigverbindungen fixierte Gasvolumen kann bei der Freisetzung unter Standardbedingungen an der Erdoberfläche mehr als das 150fache des Volumens der Gashydrate betragen. Aufgrund ihrer ungewöhnlichen Stabilitätsbedingungen, das heißt niedrige Temperaturen und erhöhte Drucke, entziehen sich Gashydrate der direkten Beobachtung und Bearbeitung. Gleichwohl kommen Gashydrate im marinen Bereich entlang von Kontinenträndern und in terrestrischen polaren Regionen in Verbindung mit Permafrost vor. Seit Beginn des Ocean Drilling Program (ODP) sind vermehrt Gashydrate aus tieferen Sedimentschichten der Kontinentränder geborgen worden; neuerdings werden häufiger Gashydratvorkommen direkt am Meeresboden beobachtet und beprobt. Das Orca-Becken im Golf von Mexico, der Hydratrücken am Cascadia-Kontinentalhang sowie ein weiteres Vorkommen vor Vancouver Island, der passive Kontinentrand vor der Mündung des Kongo sowie vor Marokko, die Randmeere Ochotskisches Meer und Schwarzes Meer sowie im östlichen Mittelmeer wie auch der Hakon Mosby-Seamound am Hang der Barents-See sind die bisher spektakulärsten Fundpunkte. Es ist allgemein akzeptiert, dass sich die untere Begrenzungsfläche von
Abb. 21: Käfigstruktur von Gashydraten mit Anordnung der Wasser- und Gasmoleküle. Bei den Gasen ist Methan das häufigste Molekül, aber auch andere leichte Kohlenwasserstoffe, Kohlendioxid und Schwefelwasserstoff können in der Struktur Platz finden.
Abb. 22: Stabilitätsbeziehungen von Mischhydraten in Abhängigkeit von Druck und Temperatur auf die Bedingungen im Ozean und im Meeresboden projiziert; Schnittpunkte zwischen Temperaturverlauf mit Stabilitätskurve definieren die Hydrat-Stabilitäts-Zone (HSZ). Untere Begrenzung der HSZ markiert den Boden-simulierenden seismischen Reflektor (BSR)/Stabilitätskurve grün = CH4-Hydrat in 555 mM (= Salzgehalt normales Meerwasser) Cl, gelb = CH4-Hydrate in 2380 mM CL-Lösung (= ca. 5 x Meerwasser); blau = 2-6 Mol-% H2S im CH4-Hydrat; 555 mM Salzlösung.
submarinen Gashydratvorkommen in Sedimenten durch einen deutlichen seismischen Reflektor, BSR („bottom simulating reflector“), identifizieren lässt. Dies ist in erster Näherung auf den extremen Dichteunterschied zurückzuführen und damit auf die Laufzeiten und Polaritäten seismischer Wellen beim Übergang von Sedimenten, die einen mit Gashydrat gefüllten Porenraum aufweisen, zu Sedimenten mit freiem Gas (Methan) im Porenraum. Im tektonisch ungestörten Sedimentverband schneidet der BSR häufig die Schichtung und folgt dem Verlauf des Meeresbodens. Hierbei nimmt mit zunehmender Wassertiefe auch der Abstand zum Meeresboden zu. Die Ursachen für die Ausprägung dieses seismischen BSR-Signals sind noch nicht in allen Einzelheiten geklärt. Es gibt marine Gashydratvorkommen sowohl mit als auch ohne ausgeprägten BSR. Das zur Zeit am besten untersuchte Gashydratvorkommen am Cascadia-Kontinentalhang wurde im ODP-Programm im Rahmen von zwei Bohrkampagnen intensiv bearbeitet. Für die Planung wie den Erfolg dieser ODP- Aktivitäten waren umfangreiche Untersuchungen im Rahmen mehrerer Fahrt-
abschnitte des deutschen Forschungsschiffs SONNE (SO 109, 110, 143 und SO 148) maßgebend. Dabei wurden nicht nur enorme Methanaustritte aus der Zone des BSR beobachtet, die sich als Wolke in der Wassersäule über dem Hydratrücken ausbreiten, sondern auch ein Hydrat- und Karbonatpflaster entdeckt, das die beiden Gipfel des Rückens großflächig überzieht. Der detaillierte Zusammenhang zwischen den Befunden der seismischen Identifizierung der Gashydrate und der Qualität, Quantität und dem Phasenzustand der Gase und Hydrate ist inzwischen dank intensiver Forschungsarbeiten, vor allem von deutscher Seite, in Ansätzen erkennbar. Das Vorkommen von Gashydraten in Sedimenten wird von einer Vielzahl von Faktoren beeinflusst. Die Stabilität der Gashydrate ist im Wesentlichen durch Druck, Temperatur und Zusammensetzung des Gases definiert. Bei einem typischen Temperaturverlauf in der Wassersäule beginnt bei circa 5°C und einem Druck von 50 bar (entsprechend einer Tiefe von ungefähr 500 m) das Stabilitätsfeld von reinem Methanhydrat (Abb. 22). Bei Zumischung von anderen Gasen, besonders von Schwefelwasserstoff, vergrößert sich der Stabilitätsbereich. Bei Zunahme des Salzgehaltes verkleinert sich das Stabilitätsfeld beträchtlich. Ein circa 2%-iger Anteil an Schwefelwasserstoff in einem Mischhydrat aus Methan und Kohlendioxid bei gleicher Temperatur bewirkt eine Erniedrigung des Drucks um circa 10 bar (entspricht circa 100 m Wassertiefe) beziehungsweise bei gleichem Druck eine Erhöhung der Stabilitätstemperatur um fast 2°C. Entsprechend bilden sich Gashydrate unterschiedlicher Zusammensetzung in unterschiedlichen Druck- und Temperaturbereichen. Weiterhin sind für die Stabilitätsbereiche in Sedimenten die „Chemie der Umgebung“, wie Zusammensetzung und Verfügbarkeit der Porenwässer, der Sättigungszustand von Gas und vermutlich katalytische Eigenschaften der Wirtssedimente, sowie Porengröße und Permeabilität von großer Bedeutung. Diese Faktoren sind dafür verantwortlich, dass die Existenz von Gashydraten oft an bestimmte Sedimenttypen gebunden ist. Häufige Wechsellagerungen zwischen reinen Hydraten, Sedimentklasten und feingeschichtetem Weichsediment weisen darauf hin. Weiße Hydratpartien dringen aderförmig in das Sediment; hierbei entsteht zusätzliches Porenvolumen, wobei das Sedimentgefüge nicht als Einheit zementiert wird. Viele der hier skizzierten Zusammenhänge sind noch nicht so weit erforscht, dass Quantifizierungen und Prognosen möglich sind. Weitere Forschungsanstrengungen sind angesichts der Bedeutung der Gashydrate für die menschliche Gesellschaft dringend notwendig. Dabei konzentriert sich die Relevanz einer anwendungsorientierten Gashydratforschung auf drei Aspekte: Gashydrate als globale Klima-Modulatoren, Gashydrate als Auslöser von Naturkatastrophen sowie Gashydrate als langfristig in Frage kommende Energieressourcen.
53
54
Ein Schlüssel zum Verständnis des Weltklimas?
Gashydrate als Auslöser von Naturkatastrophen
Die in Sedimentbecken vorkommenden Mengen der klimarelevanten Treibhausgase Methan und Kohlendioxid übertreffen die in der Atmosphäre gespeicherten Mengen erheblich. Schätzungen gehen davon aus, dass Gashydrate weltweit 10 x 1018 g Kohlenstoff enthalten. Im Vergleich dazu sind etwa 5 x 1018 g Kohlenstoff in allen bisher bekannten Lagerstätten fossiler Brennstoffe gebunden (Kohle, Erdöl und Erdgas) und 3,5 x 1018 g Kohlenstoff in der lebenden und toten Biosphäre festgelegt. Die Masse des in Hydraten gebundenen Methans übersteigt die des Methans in der Atmosphäre um das 3.000fache. In der gegenwärtigen Klimadiskussion findet Methan im Vergleich zu Kohlendioxid nur wenig Beachtung, obwohl sein Treibhauspotenzial das von Kohlendioxid um ein Mehrfaches übersteigt. Der Anteil von Methan in der Atmosphäre war in den letzten 200.000 Jahren eng an die Temperatur der Erde gekoppelt, wobei Ursache und Wirkung nicht klar sind. Es steht zu vermuten, dass eine globale Temperaturerhöhung eine Destabilisierung großer Gashydratmengen zur Folge haben könnte. Dieses wiederum würde enorme Mengen Methan freisetzen, was zu einer Verstärkung des Treibhauseffektes in der Atmosphäre führen könnte. Umgekehrt können Langzeitbeobachtungen an Gashydratvorkommen, beispielsweise an Kontinentalhängen und in kalten Schelfmeeren und die Rekonstruktion von Methanentgasungsvorgängen zur Aufzeichnung und zum Verständnis von Klimaänderungen beitragen. Diese Methode ist unter Umständen repräsentativer als Messungen in der Atmosphäre oder an Gletschereis, weil regionale und lokale sowie kurzfristige Faktoren ausgeschaltet werden. Von besonderer Bedeutung für die Speicherung beziehungsweise Freisetzung von Gashydraten sind die zirkumarktischen Permafrostlandschaften. Mit einer Mächtigkeit von bis zu 1.000 m ist zum Beispiel der größte Teil Sibiriens von Permafrost bedeckt. Die in ihm enthaltenen Gase und Gashydrate können bei einer klimabedingten Zersetzung des Permafrostes freigesetzt werden und zu einem zusätzlichen Treibhauseffekt führen. In den flachen sibirischen Schelfgebieten, in denen der kontinentale Permafrost erst seit der postglazialen Transgression überflutet wurde, bildet dieses gefrorene Gestein eine Barriere, unter der sich Gase und Gashydrate sammeln. Die Kenntnis von Verbreitung, Struktur und möglichem Abbau des Permafrostes und der mit ihm verknüpften Gashydrate sowie die Prozesse, die bei Zustandsänderungen ablaufen, sind für realistische Prognosen über die zukünftige Klimaentwicklung eine entscheidende Voraussetzung.
Die Zersetzung von Gashydraten zum Beispiel durch Meeresspiegelabsenkungen oder durch Umlenkung warmer Meeresströmungen in Gebiete mit bisher kaltem Bodenwasser kann die mechanische Stabilität von Kontinentalhängen derart verändern, dass großflächig gewaltige Sedimentmassen abrutschen. Diese submarinen Rutschungen lösen Naturkatastrophen in Form von Tsunami-Wellen aus, die verheerende Auswirkungen für küstennahe Siedlungsräume haben können. Das Verständnis der bei der Gashydratbildung und -zersetzung in marinen Sedimenten ablaufenden mechanischen Prozesse ist eine der Voraussetzungen für die Prognose der Standsicherheit von Tiefseehängen. Entsprechende Forschungsanstrengungen stehen jedoch erst am Anfang. Es ist zu erwarten, dass eine Gashydratbildung auf eine Zementation des Sedimentgefüges hinausläuft und damit zunächst eine stabilisierende Wirkung submariner Hänge ausübt. Umgekehrt wird eine Zersetzung von Gashydraten zur Bildung von Gasbläschen im Sediment führen, welche die mechanischen Eigenschaften durch Herabsetzung des Reibungskoeffizienten so stark verändern, dass Rutschungen ausgelöst werden. Die Quantifizierung dieser Zusammenhänge und der sie kontrollierenden sediment-physikalischen Parameter sind beim gegenwärtigen Kenntnisstand nicht möglich. Ein gut dokumentiertes Beispiel einer solchen submarinen Rutschung, die wahrscheinlich durch Destabilisierung die von Gashydraten ausgelöst wurde, ist die Storegga-Rutschmasse, die auf dem Tiefseeboden des Nordatlantiks eine Fläche von der Größe Schottlands bedeckt. Ihre Herkunft in Gestalt einer gewichtigen Abrissnische ist auf dem norwegischen Kontinentalsockel bathymetrisch genau vermessen. Diese gewaltige Rutschung ereignete sich vor circa 10.000 Jahren und die Ablagerungen der dadurch ausgelösten Tsunami-Welle sind in Island, Schottland und sogar noch in den Niederlanden nachgewiesen.
Gashydrate als potenzielle Energieressource?
Unter den wesentlichen Energieträgern, weltweit und in Deutschland, hat in den letzten Jahren Erdgas erheblich an Bedeutung gewonnen. Dieser Umstand ist einerseits durch die Verfügbarkeit eines effizienten PipelineSystems, andererseits durch die geringeren CO2-Emissionen im Vergleich zu Kohle und Erdöl zu erklären. Unter den Gasressourcen sind diejenigen, die an Gashydrate gebunden sind, nach vielen Berechnungen die größten. In der Literatur findet sich dazu: „The largest accumulations on Earth of natural gas are in the form of gashydrates, found mainly offshore in outer continental margin sediments and, to a lesser extent, in polar regions commonly associated with permafrost“. Inwieweit diese Gashydratvorkommen kommerziell nutzbar sind, ist je-
Forschungsergebnisse aus dem FuE-Programm GEOTECHNOLOGIEN
Abb. 23: Die Forschungsbohrung Mallik in Nordkanada untersuchte Gashydrate im Kontinentalen Permafrost.
doch unklar. Bisher gab es weltweit nur ein Gashydratvorkommen, und zwar das Messoyakha-Feld in Nordwestsibirien, aus dem Gase gefördert wurden. In den letzten Jahren ist das im MacKenzie River Delta von Nordamerika gelegene Mallik-Feld zu dem weltweit best untersuchten Testgebiet zur Entwicklung von entsprechender Fördertechnologie geworden. In dieser Erdgaslagerstätte liegt das Methan in mehreren Reservoirhorizonten in hydratisierter Form vor. Ein Erschließen der Gashydratvorkommen könnte, zumindest theoretisch, die Ressourcensituation für fossile Brennstoffe deutlich verändern. Langfristig, über 50 Jahre und länger, ist mit natürlichen Gashydratvorkommen als Energieressource weltweit zu rechnen. Ressourcenarme Gesellschaften, wie Japan und Indien, sind bereits heute bemüht zur Sicherstellung ihrer Energieversorgung, auf Gashydrate zurückzugreifen und haben bereits umfangreiche FuE-Programme begonnen. In Japan sind im offshore-Bereich Forschungsbohrungen zur Erkundung einer potenziellen Förderung von Methan aus Gashydraten gebohrt worden und entsprechende technologische Entwicklungsarbeiten zur Bereitstellung von Gasförderverfahren sind im Gange. Das erklärte Ziel dieser Anstrengungen ist es, bis 2010 eine kommerzielle Förderung aus submarinen Gashydraten zu realisieren.
Seit Anfang 2000 werden im Rahmen des FuE-Programms GEOTECHNOLOGIEN in der Bundesrepublik Deutschland 14 Forschungsvorhaben vom BMBF gefördert. Sieben dieser Vorhaben sind Verbundprojekte, in denen Partnerinstitute aus mehreren Forschungsinstitutionen und Universitäten zusammenarbeiten. Die Untersuchungen mariner Gashydrate sind auf die Verfügbarkeit von Forschungsschiffen angewiesen. Hierbei kamen FS Sonne und FS Meteor mehrfach zum Einsatz. Auch ferngesteuerte Robotergeräte (ROV’s) und Tauchboote sind in diesem Zusammenhang eingesetzt worden. Die Bohrfahrt 204 des internationalen Tiefseebohrprogramms ODP, die unter Leitung eines deutschen CoScientist stand, war speziell der Untersuchung des Gashydratvorkommens auf dem Cascadia-Kontinentalhang gewidmet. Die Untersuchungen terrestrischer Gashydratvorkommen in arktischen Regionen werden schwerpunktmäßig in Kanada und in Sibirien in Kooperation mit dortigen Forschergruppen durchgeführt. Weiterhin basieren mehrere dieser vom BMBF geförderten Forschungsvorhaben ganz oder teilweise auf experimentellen oder numerischen Simulationen zur Gashydratbildung und -rückbildung sowie zur Ermittlung mikrobiell gesteuerter Stoffumsätze. Eine wichtige Rolle bei fast allen dieser Forschungsvorhaben spielt die Beteiligung der deutschen Industrie. Dies betrifft vor allem die Entwicklung und den Bau von Mess- und Regel-Technologie für in situ-Messungen und Langzeitbeobachtungen. Im Folgenden sind ausgewählte Beispiele bisheriger Ergebnisse der im FuE-Programm GEOTECHNOLOGIEN geförderten Gashydratforschung unter thematischen Gesichtspunkten erläutert.
Verbesserte Verteilungsmuster von Gashydraten zur Abschätzung globaler Gashydratvorkommen
Die aus der Literatur bekannten Abschätzungen der weltweit vorhandenen Gashydratvorräte (ozeanisch und Permafrost) schwanken in relativ weiten Grenzen: Von 1 bis 46 x 1015 m3 Methan, das in hydratisierter Form vorliegt, wobei die meisten Autoren einen Wert von 21 x 1015 m3 favorisieren. Diese Abschätzungen beruhen zumeist auf einer weltweiten Extrapolation der Verhältnisse an einigen wenigen Lokalitäten, wo die Zusammenhänge zwischen dem Auftreten des BSR und der Konzentration an Gashydraten im Sediment relativ gut dokumentiert sind, auf alle Tiefseebereiche, die im Stabilitätsfeld der Gashydrate liegen. Diese vereinfachte Vorgehensweise ist jedoch – wie Abbildung 22 beispielhaft zeigt – mit erheblichen Unsicherheiten verbunden. Das Stabilitätsintervall für marine Gashydrate ist in erhebli-
55
chem Maße von den P-T-Bedingungen, der Salinität des Porenwassers und dem Vorhandensein weiterer hydratbildender niedrigmolekularer Komponenten, wie Schwefelwasserstoff und Kohlendioxid abhängig. Vor allem aber sind die geophysikalischen Signale für das Auftreten von Gashydraten in marinen Sedimenten, erhöhte Schallfortpflanzungsgeschwindigkeit hydratzementierter Sedimente und der BSR bisher nur qualitativ auswertbar. Erhebliche Forschritte in der Entwicklung neuer geophysikalischer Messtechnologie einerseits wie der
56
Auswerteverfahren andererseits im Rahmen der Vorhaben INGGAS (GEOMAR, Kiel) und DEGAS (BGR, Hannover) geben Anlass zu der berechtigten Hoffnung, dass die Quantifizierung von Gashydratvorkommen mariner Sedimente mit höchstauflösenden reflektionsseismischen Verfahren deutlich verbessert werden kann. Die Erforschung terrestrischer Gashydratvorkommen unter Permafrostbedingungen ist durch Untersuchungen des GFZ Potsdam im Rahmen eines internationalen Konsortiums (Geological Survey of Canada, Japan National Oil Company, Department of Energy, USA, und United States Geological Survey) mit Feldkampagnen im Bereich des Mallik Gasfeldes, NW Territories/Kanada, Laboruntersuchungen und Simulationsrechnungen wesentlich vorangekommen. Dabei wurden aufgrund seismischer Messungen tomographische Schnitte durch die Gashydratzone im Umfeld einer Forschungsbohrung gelegt und Messparameter für die Kalibrierung von Bohrlochmessungen gewonnen. Erstmalig konnten detaillierte Daten sowohl des natürlichen Temperaturfeldes eines Gashydratvorkommens, als auch des in situ-Verhaltens von Methanhydrat bei Temperaturerhöhung im Feldmaßstab gewonnen werden. Erste Ergebnisse aus molekularen organisch-geochemischen Untersuchungen deuten auf lebende mikrobielle Gemeinschaften in der tiefen Gashydratzone der Mallik-Forschungsbohrung hin.
Welche Bedeutung hat das Methanhydrat im globalen Kohlenstoffkreislauf?
Abb. 24: Riffe aus Mikroorganismen in anoxischem Bodenwasser des Schwarzen Meeres. Oben: Ein Dünnschnitt des Riffs wurde für die Epifluoreszenz-Mikroskopie doppelt gefärbt: Methanotrophe Archaebakterien in Rot; sulfatreduzierende Bakterien in Grün. Der weiße Balken entspricht einem fünfzigstel Millimeter. Unten: Ein Blick aus dem Tauchboot JAGO auf das von Gasblasen umströmte Bakterienriff. Einige der Riffstrukturen sind 4 m hoch und 1 m breit. Sie bestehen fast ausschließlich aus methanfressenden Mikroorganismen, sowie aus durch den Methanumsatz ausgefälltem Kalk.
Zur Beurteilung dieser Fragestellung insbesondere der Rolle des Methans als Klimafaktor, sind neben der Ermittlung der globalen Gashydratvorräte noch erhebliche Erkenntnislücken zu grundlegenden biogeochemischen und mikrobiologischen Prozessen zum MethanUmsatz und zu relevanten Stoffflüssen zu schließen. Das im Methan gespeicherte Hydrat entstammt größtenteils der mikrobiellen Zersetzung organischen Materials (Fermentation), sowie der CO2-Reduktion durch methanogene Mikroorganismen. Untersuchungen des Max Planck Instituts für Marine Mikrobiologie und seiner Kooperationspartner (Projekt MUMM) zeigen, dass ähnliche Archaebakerien aber auch für die effiziente Zersetzung des aus Hydraten entweichenden Methans unter anaeroben Bedingungen verantwortlich sind. Diese leben in enger Vergesellschaftung mit sulfat-reduzierenden Bakterien (Abb. 24). Einige dieser Schlüsselorganismen wurden kürzlich identifiziert, die einen effizienten Filter im und auf dem Sediment für entweichendes Methan darstellen. Ihre Biodiversität, Funktion und Wechselwirkung mit Gashydraten und der Geosphäre wird derzeit mit modernen molekularen Methoden untersucht. Die anaeroben Methanoxidierer tragen wesentlich zur Treibhausgasbilanz der Erde bei. Sie oxidieren das Treibhausgas Methan zu Kohlendioxid, das gleichzeitig als Kalziumkarbonat ausgefällt und permanent am Meeresboden ge-
Abb. 25: Verteilung von Gashydraten in Sedimentmatrix. CT-Aufnahme an unveränderten Gashydratproben.
speichert wird. Die anaerobe Methanoxidation stellt vermutlich einen der ursprünglichsten Stoffwechsel in den ersten zwei Milliarden Jahren der Geschichte des Lebens auf der Erde dar, als es noch kaum Sauerstoff, dafür aber mehr Methan in Atmosphäre und Hydrosphäre gab. In dem größten anoxischen Meeresbecken der Erde, dem Schwarzen Meer, wurden kürzlich im Rahmen der Projekte GHOSTDABS (Universität Hamburg) und MUMM ausgedehnte Riffe gefunden, die von dichten Matten aus methanoxidierenden Archaebakterien und ihren sulfat-reduzierenden Partnern gebildet werden (Abb. 24). Diese Entdeckung ist von grundsätzlicher Bedeutung für unser Verständnis der frühen Perioden der Erdgeschichte und die Entstehung der Biosphäre. Die riffbildende, methanotrophe Symbiose aus Archaea und Bakterien ist der erste lebende Beweis dafür, dass organische Materie im Geosystem der Erde auch ohne Sauerstoff und pflanzliche Biomasse entstehen und fossil abgelagert werden konnte. Noch ist die biologische Funktion der Symbiose sowie die Biochemie der anaeroben Methanoxidation ein großes Rätsel. Es ist bekannt, dass Gashydrate in marinen Sedimenten meist in Form von Linsen, Adern und Lagen unterschiedlicher Dicke in sehr inhomogener Verteilung vorliegen. Um eine Quantifizierung der Gashydrate zu erreichen, muss dieses Gefüge bekannt sein und dessen Ursachen verstanden werden. Im Rahmen des VerbundProjekts OMEGA (GEOMAR, Kiel und Partner) gelang es jetzt weltweit erstmals die dreidimensionale Verteilung und Quantifizierung von Gashydraten in der Sedimentmatrix zu ermitteln und durch Tomographie (CAT´scan) unter in situ-Bedingungen bildhaft darzustellen (Abb. 25). Überraschend war dabei die beobachtete Koexistenz von freiem Methan und Methanhydrat
im natürlichen Sediment innerhalb des Stabilitätsfeldes der Gashydrate. Voraussetzung für die Durchführung dieses Experimentes war die erfolgreiche Entwicklung eines Autoklavmulticorers an der TU Berlin, mit der Gashydrate unter in situ stabilisierten Druck- und Temperaturbedingungen entnommen und untersucht werden können. Die gleiche Technologie in leicht adaptierter Weise wurde ebenfalls erfolgreich bei der Tiefseebohrung im ODP Leg 204 am Hydratrücken vor Oregon (USA) eingesetzt. Auch hier konnte die Koexistenz von freiem Gas und Gashydrat innerhalb des Stabilitätsfeldes nachgewiesen werden. Die Auswirkungen dieses Befundes sind ebenso weitreichend wie die Ursachen zu Spekulationen Anlass geben. Das Vorkommen von freiem Gas innerhalb des Stabilitätsfeldes könnte auf einen Mangel an Wasser zurückzuführen sein oder auch auf den Einfluss von Lösungsgenossen auf die Stabilität. Die Implikationen dieses Befundes betreffen vor allem die physikalischen Eigenschaften der Hydrate im natürlichen Sedimentverband, wie zum Beispiel die Schallausbreitung und die Wärmeleitfähigkeit. Im Rahmen des Verbundprojektes LOTUS (GEOMAR, Kiel und Partner) wurden zwei neue Langzeitobservatorien entwickelt und auf dem Gashydratrücken am Cascadia-Kontinentalhang erfolgreich eingesetzt. Sie erlauben die Quantifizierung von Gas- und Fluidflüssen aus Gashydrat-führendem Sediment und die Messung biogeochemischer Stoff-Umsatzraten auf Zeitskalen, die ihrer Kinetik entsprechen. Einmalig ist hierbei die Erhaltung des natürlichen Strömungsfeldes sowie der Sauerstoffkonzentration innerhalb der Messkammern. Dies ermöglicht eine exakte Simulation des natürlichen Zustandes. Anhand von radiogenen Isotopenverteilungen an Gashydratkarbonaten und Chemohermen konnte gezeigt werden, dass diese Archive das Alter, die Lebensdauer und die Umgebungstemperatur der Fluid- und Gasaustrittsstellen aufzeichnen. Das Alter einiger Chemohermkarbonate entspricht den Perioden mit den glazialen Niedrigständen des globalen Meeresspiegels. Anhand der dort gewonnenen Messdaten ergaben numerische Modellierungen, dass die bakterielle anaerobe Methanoxidation mit einer Rate von 870 µmol cm-2 a-1 den wichtigsten biogeochemischen Prozess in diesen Sedimenten darstellt. Ein erheblicher Anteil (14 %) des dabei produzierten Biokarbonats wird den Fluiden durch die Ausfällung von authigenem Karbonat entzogen. Diese Karbonatausfällungsrate ermöglicht den Aufbau einer 1 Meter mächtigen Karbonatlage über den Zeitraum von circa 20.000 Jahre. Mehrere Länder, unter anderem die USA, Japan, VR China und Indien haben Gashydratforschungsprogramme begonnen mit dem Hauptziel, Mittel und Wege zu finden, Gashydrate als Energieressource wirtschaftlich zu nutzen. Dieser Aspekt steht im Rahmen des FuE-Programms GEOTECHNOLOGIEN nicht im Vordergrund der Forschung. Das primäre Ziel ist vielmehr die Erforschung der Klimawirksamkeit der Gashydrate, ihr Beitrag zur Kohlenstoffbilanz und ihre Rolle als modulierender Speicher des Treibhausgases Methan. Die Ermittlung des Gefahrenpotenzials, das durch Gashydratdesta-
57
bilisierung ausgelöste submarine Rutschungen und möglicherweise verheerende Flutwellen nach sich ziehen, ist ein weiteres Hauptziel der Forschung innerhalb des Programms. Voraussetzung zur Beantwortung dieser Problemstellungen sind zuverlässige Kenntnisse über die weltweite Verbreitung von marinen und terrestrischen Gashydraten, genauere Erkenntnisse über die physicochemischen Bedingungen der Gashydratbildung und -zersetzung sowie die Quantifizierung von Stoffflüssen und Umsatzraten aller relevanten mikrobiologischen und biogeochemischen Prozesse unter in situ Bedingungen.
Gashydrate als potenzielle Gefahrenquelle
58
Das Verständnis der ablaufenden mechanischen Prozesse in marinen Sedimenten während der Gashydratbildung und -rückbildung ist eine wesentliche Grundlage für die Prognose der Standsicherheit von Tiefseehängen und Meeresböden wie auch von offshore-Anlagen. Im Rahmen des Verbundprojekts GASSTAB (TU Berlin, Universität Kiel) wurde einerseits eine bodenmechanische Versuchsanlage entwickelt, mit deren Hilfe es erstmals möglich ist, die Spannungsreaktionen als Folge der Bildung und Zersetzung von Gashydraten in Sedimenten unter natürlichen marinen Randbedingungen messtechnisch zu erfassen. Andererseits wurden anhand dieser Messdaten die im Sediment ablaufenden Spannungsprozesse in ihrer Dynamik numerisch simuliert und festgestellt, dass selbst Böschungen mit sehr geringen Neigungswinkeln kollabieren können zum Beispiel ausgelöst durch Erdbeben.
Abb. 26: Aufnahme mit einem Kryo-Feldemissions-Raster-Elektronenmikroskop, das die schwammartige Mikrostruktur von synthetischem Methanhydrat zeigt.
MUMM, MPI Bremen und Partner) sowie am passiven Kontinentalhang vor der Mündung des Kongo (Projekt CONGO, Universität Bremen und GEOMAR, Kiel) untersucht. Im letztgenannten Gebiet wurden drei große Pockmark-Strukturen mit einem breiten Spektrum geophysikalischer Methoden (Mehrkanal 3-D-Seismik, OBS-Tomographie, Deep Tow Seismik, Side Scan Sonar und Geothermik) vermessen und räumliche Abbildungen für Fluid- und Gasaufstiegswege erhalten und Gashydratvorkommen nachgewiesen. Einige dieser Aufstiegsbahnen scheinen in Zusammenhang zu stehen mit Kompressions- und Dehnungsprozessen in der unmittelbaren Umgebung von Diapirstrukturen der Salztektonik im Untergrund.
Regionale Aspekte Struktur und Eigenschaften der Gashydrate Die Stabilitätsbedingungen für die Bildung von Gashydraten – unter der Voraussetzung eines entsprechenden Methanangebots – sind auf den Ozeanböden ( > 500 m Wassertiefe) und in arktischen Regionen in Zusammenhang mit Permafrostbedingungen gegeben. Daher war es sinnvoll, die Gashydratforschung sowohl im terrestrischen als auch im marinen Bereich anzusiedeln. Als wichtigstes kontinentales Untersuchungsgebiet wurde das Mallik-Gashydratvorkommen im Bereich des MacKenzie-River Deltas ausgewählt, das im Rahmen des oben erläuterten Projektes des GFZ Potsdam untersucht wird. Im Rahmen von Ausfahrten des FS SONNE und FS METEOR wurden marine Gashydratvorkommen am Cascadia-Kontinentalhang (Projekte OMEGA und LOTUS, GEOMAR, Kiel sowie MUMM, MPI Bremen), im Schwarzen Meer (Projekte GHOSTDABS, Universität Hamburg und Partner sowie OMEGA), im Nordatlantik (Haakon Mosbey Schlammvulkan durch AWI Bremerhaven und Partner), im Golf von Mexico und im Guaymas Becken vor Niederkalifornien (Projekt
Die physikalischen und thermodynamischen Eigenschaften von Gashydraten als Funktion der P-T-x Bedingungen sind bisher nur unzureichend bekannt. Diese Kenntnisse sind aber in vielfacher Hinsicht von elementarer Bedeutung zum Beispiel für die korrekte Interpretation seismischer Messungen. Durch Laborexperimente zur Synthese von Gashydraten und Vermessung ihrer physikalischen und kristallographischen Eigenschaften sowie durch numerische Simulationen wurden im Rahmen des FuE-Programms GEOTECHNOLOGIEN bereits bedeutende Fortschritte erzielt . Untersuchungen an der Universität Göttingen mittels der Feldelektronen-Mikroskopie konnten weltweit erstmals dokumentieren, dass Gashydrate auch auf submikroskopischer Skala eine poröse Struktur aufweisen (Abb. 26). Eine schwammartige Mikrostruktur von Methanhydrat mit Porendurchmessern von einigen 100 nm wurde bei synthetischen wie auch bei natürlichen Gashydraten gefunden. Dies ist unter anderem von Bedeutung
für den seismischen Nachweis von Gashydraten und beeinflusst die Kinetik der Zersetzung von Gashydraten im Falle einer thermodynamischen Destabilisierung. An der Universität Kiel wurden die kollektiven Gitterschwingungen von synthetischem Methanhydrat mit Hilfe von inelastischer Röntgenstreuung gemessen und die Schallgeschwindigkeit bestimmt. Am GFZ Potsdam wurde ein Experimentierstand errichtet , mit dem naturidentische Methanhydrate (sI-Typ) sowohl in reiner massiver Form als auch in sedimentärer Matrix reproduzierbar hergestellt werden können. Ebenso gelang die Bestimmung gesteinsphysikalischer Parameter wie zum Beispiel elektrische Leitfähigkeit und seismische Geschwindigkeit an hydratführenden Sedimenten. Außerdem konnte erstmalig experimentell gezeigt werden, dass sich bei der Bildung von Mischhydraten das Verhältnis der Gase in den Clathraten signifikant von dem in der freien Gasphase unterscheidet, wobei Gase mit besserer Wasserlöslichkeit bevorzugt in der Hydratphase angereichert werden. Dieses bisher theoretisch geforderte Verhalten sollte die Kenntnis natürlich vorkommender Stabilitätsfelder von Gashydraten deutlich erweitern.
Ergebnisse und Ausblick
Aus den bisherigen Ergebnissen fast aller Projekte wird deutlich, dass die Forschungsinitiative „Gashydrate im Geosystem“ langfristig angelegt war. Deshalb ist es umso bemerkenswerter, wie groß die Anzahl der innovativen und herausragenden Ergebnisse ist, die schon jetzt vorgelegt werden konnten. Das Forschungsthema bietet einen weiten Raum für neue Erkenntnisse. Der Erfolg bestätigt die Weitsicht der ursprünglich eingerichteten Initiative im Rahmen des FuE-Programms GEOTECHNOLOGIEN. Die Ergebnisse machen deutlich, dass durch technologische Neuentwicklungen und Expeditionen in neue Gebiete die wissenschaftlich bemerkenswertesten Erfolge erzielt wurden. Im Einzelnen handelt es sich dabei unter anderem, um die Entwicklung von Technologien, die es erlauben, Gashydrate nicht nur unversehrt vom Meeresgrund zu bergen, sondern sie auch unter druckund temperaturerhaltenden Bedingungen zu studieren. Auch die mikrobiologischen und bio-geochemischen Ergebnisse der Untersuchungen zur anaeroben Oxidation von Methan genießen weltweite Anerkennung. Der Einsatz der Autoklav-Technologie zur Aufklärung der Gashydrat-Gefüge und zur Visualisierung des Hydrat-Sediment-Wasser-Gas Verbandes in natürlicher Umgebung wird für mehrere Jahre die Spitzenstellung der Arbeitsgruppen sicher stellen. Hierbei darf nicht unterschätzt werden, dass durch die internationalen Erfolge ein Wettlauf entstanden ist, der nur durch adäquate Finanzierung erhalten werden kann. Schon jetzt sind Anzeichen erkennbar, dass andere Gruppen schnell und aggressiv den Vorsprung aufholen. Ähnlich stellt sich die Situation für die mikrobiologi-
schen und bio-geochemischen Ergebnisse dar. Diese haben international eine beachtliche Aufmerksamkeit gefunden, so dass auch hier der Vorsprung gehalten werden muss. Anders als bei der Autoklav-Technologie, welche gezielt auf die Erforschung von Gashydraten abgestimmt ist, betreffen die mikrobiologischen und biogeochemischen Ergebnisse sowohl den Stoffumsatz des Methans wie auch allgemeine mikrobiologische Untersuchungen von AOM-Konsortien. Zu einer zweiten Gruppe an herausragenden Ergebnissen die auf der Entwicklung neuer Technologien beruhen, gehören die Untersuchungen zum Mikrogefüge von Gashydraten im Feldelektronenmikroskop. Die Erfolge bei der Synthetisierung von Methanhydraten in unterschiedlichster Umgebung (Verband Sediment-Wasser-Gas; multiple Bildungsparameter oder Einfluss des Hydrats auf die bodenmechanischen Eigenschaften) gehören hierher, wie auch die jetzt anlaufenden Untersuchungen zum Hydratverhalten in Druckkammern. Ohne Zweifel lassen sich diese Ergebnisse ebenfalls am internationalen Stand messen und nehmen dort eine Spitzenstellung ein, allerdings gibt es weltweit zahlreiche Arbeitsgruppen, die sich mit diesen Fragen befassen oder befasst haben. Die Innovation und die grundlagenbezogenen Erkenntnisse zu dem Themenbereich dieser Gruppe entstammen ohne Ausnahme den Fragestellungen wie sie aus den Expeditionen entstanden sind und der Befassung mit der natürlichen Umwelt formuliert wurden. Hieraus ergibt sich zwangsläufig, dass Expeditionen und Felduntersuchungen der wissenschaftlichen Erkenntnis den stärksten Schub verleihen. Aus den formulierten Forschungszielen für die Zukunft, ist erkennbar, dass sich die auf Gashydrate fokussierten Untersuchungen stark ausweiten. Sie zielen im Grunde auf die Bedeutung des globalen Methankreislaufes ab. Fragen zu Bilanzen und Kreisläufen und deren Behandlung im globalen Rahmen sind wissenschaftlich immer von höchster Priorität aber in der Durchführbarkeit oft schwer zu realisieren. Solange diese als Fernziele nicht aus den Augen verloren werden, sind die weniger umfassenden und mehr auf das überschaubare Ziel gerichteten Untersuchungen immer vorzuziehen. Eine Synthese die sich mit den großen Fragestellungen beschäftigt kommt zwangsläufig. Zu einem Ausblick in die Zukunft gehören auch Überlegungen ob und wie gesellschaftliche Fragen, Interessensbereiche und internationale Beziehungen durch die Forschung berührt werden. Die Gashydratforschung bietet hier reichlich Anknüpfungspunkte. Folgende Gesichtspunkte sollten zukünftig beachtet werden: • Gesellschaftsrelevanz • Klima und Umwelt • Nutzung • Autoklav-Technologie; Energieressource • Gentechnik der AOM-Konsortien • Wirtschaftlich-Technische Zusammenarbeit (WTZ) • Gemeinsame Projekte: V.R. China, Japan, Indien, Indonesien, Kanada und USA.
59
60
Stoffkreisläufe: Bindeglied zwischen Geosphäre und Biosphäre
S
toffkreisläufe, ihre Charakterisierung und die Quantifizierung von Reservoiren und Stoffumsetzungen waren in der Vergangenheit Thema nationaler und internationaler Forschungsprogramme. Themenschwerpunkte lagen in der Zusammensetzung der Atmosphäre oder der Waldschadensforschung, wobei zumeist die Quantifizierung des anthropogenen Eintrags umweltrelevanter Stoffe in die rezenten Ökosysteme im Vordergrund stand. Eine solche Beschreibung des Istzustandes griff selten auf die Erkenntnisse der geowissenschaftlichen Forschung zurück, obwohl viele der heutigen Elementkreisläufe bereits stark durch anthropogene Beeinflussungen verändert worden sind. Eine konkrete Bilanzierung dieses anthropogenen Beitrags kann nur auf der Basis einer Quantifizierung der geogenen Stoffkreisläufe für die erdgeschichtliche Vergangenheit erfolgen. Aufbauend auf den Ergebnissen bisheriger Untersuchungen zur anthropogenen Beeinflussung unserer heutigen Umwelt soll im Forschungsvorhaben „Stoffkreisläufe: Bindeglied zwischen Geosphäre und Biosphäre“ eine Quantifizierung des anthropogenen Beitrags erfolgen, um so ein umfassendes Verständnis über die Funktionsweise ausgewählter Stoffkreisläufe zu erreichen. Bereits vorliegende Daten sollen integriert werden und mit neu gewonnenen Erkenntnissen in eine zeitlich und räumlich umfassende Interpretation münden. Die hierzu erforderlichen Informationen gehen weit über die reinen Gehaltsangaben von Stoffen in den unterschiedlichen Reservoiren hinaus. Vielmehr geht es um das Verständnis der Stoffumsetzungen und die Quantifizierung von Stoffflüssen. Nur ein verbessertes Gesamtverständnis der Prozesse erlaubt es, die natürlichen und anthropogenen Anteile innerhalb der Stoffkreisläufe zu erkennen. Darauf aufbauend können dann sinnvolle und belastbare Konzepte zur zukünftigen Ressourcennutzung und Entwicklung der Umweltbedingungen erarbeitet werden.
61
Themenschwerpunkt: „Stoffkreisläufe: Bindeglied zwischen Geosphäre und Biosphäre“ Förderstatus BMBF: Zur Zeit keine Förderung des BMBF. Förderstatus DFG: Zur Zeit keine Förderung durch die DFG.
Stoffkreisläufe als Spiegel des Systems Erde
Z
entral für unser Verständnis der Entwicklungsgeschichte unserer Erde, ihrer heutigen Funktionsweise und möglicher Projektionen in die Zukunft ist eine ganzheitliche Betrachtung des Systems Erde unter Berücksichtigung aller Kompartimente: der
62
A
B Abb. 27: Stoffkreisläufe, ihre Reservoire und Verknüpfungen: A) geogen, B) anthropogen.
Atmosphäre, der Hydrosphäre, der Biosphäre, der Pedosphäre und der Lithosphäre. Die Erkenntnis, dass nur ein multidisziplinärer Ansatz mit dem Ziel der Charakterisierung und Quantifizierung zentraler Prozesse innerhalb des gesamten Systems Erde dieses Verständnis ermöglicht, ist mittlerweile in der geowissenschaftlichen Fachwelt verankert. Umfassenden Eingang in das tägliche Leben, die Ausbildung künftiger Generationen oder die Gestaltung politischer Entscheidungen hat sie jedoch noch nicht gefunden. Eingebettet in fundamentale geowissenschaftliche Vorstellungen wie Plattentektonik und Recycling geotektonischer Provinzen und ihrer Gesteine ist das Konzept des geochemischen Kreislaufs. Das Bild des Stoffkreislaufs (Abb. 27 A) nimmt eine Schlüsselrolle im Verständnis des Systems Erde ein und reflektiert zugleich dessen Dynamik. Zentrale Elemente des geochemischen Kreislaufs sind Reservoire und Transferfunktionen zwischen diesen. Der Begriff des Reservoirs abstrahiert die Tatsache, dass trotz eines dynamischen Systems alle Stoffe an verschiedenen Positionen innerhalb ihres Kreislaufs unterschiedlich lange verweilen. Als Beispiel sei erwähnt, dass Wasserdampf in der Atmosphäre eine durchschnittliche Verweildauer von Tagen hat, während das gesamte Wasservolumen der Weltmeere innerhalb von etwa 1.000 Jahren einmal durchmischt wird. Damit verknüpft ist auch die Tatsache, dass Reservoire ganz unterschiedliche Größen haben können und sich in allen Kompartimenten der Erde finden. Der Begriff der Transferfunktion fasst alle physikalischen, chemischen oder biologisch gesteuerten Prozesse zusammen, die für den Transport eines Stoffes von einem Reservoir ins nächste verantwortlich sind. Geochemische Kreisläufe sind prinzipiell elementspezifisch und werden durch Art und Menge von Reservoiren und den dazwischen liegenden Transferreaktionen charakterisiert. Innerhalb der Reservoire können die Elemente in verschiedenen Zustandsformen, in fester, flüssiger oder gasförmiger Form, aber auch in verschiedenen Bindungsformen als anorganische oder organische Verbindungen vorliegen. Der Stofftransport zwischen den Reservoiren, die Transferreaktionen, sind zumeist mit einer Änderung der Bindungsformen verknüpft. Zwei weitere wichtige Erkenntnisse sind für das Verständnis von Stoffkreisläufen entscheidend. Stoffkreisläufe funktionieren auf unterschiedlichen Zeitskalen, wobei vor allem die Art der Transferfunktionen, aber auch die betrachteten Reservoire von Bedeutung sind. Hieraus ergibt sich zugleich eine gewisse Hierarchie der Kreisläufe. Im geowissenschaftlichen Kontext wird der heutige Zustand als kurzzeitiger Stoffkreislauf dem Langzeitkreislauf entlang der geologischen Zeitachse gegenüber gestellt. Wichtiger noch ist die Tatsache, dass Stoffkreisläufe zwar einerseits elementspezifisch sind, andererseits aber nicht isoliert betrachtet wer-
den können. Geochemische Kreisläufe sind häufig eng miteinander verknüpft. Dieses ist besonders deutlich bei biologisch gesteuerten Redoxreaktionen, in denen reduktive Prozesse, beispielsweise innerhalb eines Sedimentes, häufig mit der Oxidation organischer Materie verbunden sind. Gleichzeitig muss klar sein, dass sich dadurch auch Wechselwirkungen zwischen geochemischen Kreisläufen ergeben, die prinzipiell auf unterschiedlichen Zeitskalen operieren. Als Beispiel können heute ablaufende biologische Redoxreaktionen verstanden werden, die auf anorganische oder organische Stoffe aus der Aufarbeitung geologischer Gesteinsformationen zurückgreifen. Die Komplexität von Stoffkreisläufen innerhalb und zwischen den diversen Kompartimenten bedingt die genaue qualitative und quantitative Kenntnis der Reservoirgrößen und Stoffumsätze während der zahlreichen möglichen Transferreaktionen. Diese Kenntnisse sind häufig eher lückenhaft, was die Tiefe möglicher Interpretationen entsprechend herabsetzt. Eingang finden unsere Erkenntnisse in modellhafte Vorstellungen über die Funktionsweise einzelner oder besser verknüpfter Elementkreisläufe. Für einen Stoffkreislauf ermöglichen diese die Identifizierung der steuernden Parameter und erlauben unter Umständen eine Prognose zukünftiger Entwicklungen. Nach mehr als 4 Milliarden Jahren der natürlichen Entwicklung von Stoffkreisläufen auf der Erde wird eine Reihe von diesen zunehmend durch den Menschen beeinflusst (Abb. 27 B). Spätestens seit der industriellen Revolution hat dieser Einfluss eine Dimension angenommen, die in vielen Fällen den natürlichen Änderungen zumindest einzelner Elementkreisläufe vergleichbar ist oder diese gar übersteigt. Die anthropogene Beeinflussung von Stoffkreisläufen (Anthroposphäre) ergibt sich durch die Entnahme und Nutzung natürlicher Rohstoffe. Unter Einsatz von Energie (häufig nicht erneuerbare natürliche Ressourcen) werden Rohstoffe abgebaut. Bei der Aufbereitung anfallende feste, flüssige oder gasförmige Abfallstoffe werden wieder in die Geosphäre eingebracht. Nur ein relativ geringer Teil der vom Menschen erzeugten Abfallstoffe wird derzeit wiederverwertet. Der Weg von der Durchlaufwirtschaft zur Kreislaufwirtschaft ist weit. Im Rahmen der gängigen Entsorgungspraxis gelangen gasförmige Stoffe in der Regel direkt oder über Filter in die Atmosphäre, während flüssige Abfälle (zum Beispiel häusliche und industrielle Abwässer) nach Reinigung zumeist in die Hydrosphäre abgegeben werden. Auf diese Weise gelangt ein Großteil der in die Atmound Hydrosphäre emittierten Stoffe irgendwann wieder in die Böden oder wird in den Sedimenten von Fließgewässern oder des Meeres abgelagert. Die Entsorgung fester Abfallstoffe erfolgt je nach ihrem Gefährdungspotenzial mehr oder weniger aufwändig durch Einlagerung in oberirdischen oder untertägigen Deponien. Hier verbleiben die Stoffe je nach Deponiestandort und Verwahrungskonzept unterschiedlich lange, bis hin zu geologischen Zeiträumen. Dabei muss allerdings berücksichtigt werden, dass auch Deponieraum ein nur in begrenztem
Maße verfügbares und damit kostbares Gut ist. Daher ist die genaue Kenntnis über das Verhalten von Schadstoffen unter diversen Umweltbedingungen wichtig, um entsprechend sinnvolle und nachhaltige Verwahrungskonzepte zu entwickeln. Der überwiegende Anteil anthropogener Schadstoffeinträge erfolgt diffus in die Geosphäre. Dabei kann es lokal zu Schadstoffanreicherungen kommen, welche die natürlichen Gleichgewichte und Stoffflüsse empfindlich stören. Unerlässlich sind hier qualitative und quantitative Kenntnisse über natürlichen Abbau oder Rückhaltevermögen einzelner Reservoire und Kompartimente. Neben den lokal begrenzten Beeinflussungen gibt es aber auch anthropogene Einflüsse im globalen Maßstab. Im Rahmen des Projektes „Stoffkreisläufe: Bindeglied zwischen Geosphäre und Biosphäre“ sollen schwerpunktmäßig biologisch relevante Stoffkreisläufe untersucht werden: Kohlenstoff, Schwefel, Stickstoff und Phosphor. Diese Elemente werden vom Menschen in signifikanten Mengen in Umlauf gebracht und beeinflussen teilweise entscheidend die natürlichen Stoffkreisläufe. Ziel ist es, die Stoffumsetzungen dieser Elemente in Geosphäre, Pedosphäre, Biosphäre, Hydrosphäre und Atmosphäre sowie an deren Schnittstellen (Grenzflächen) qualitativ und quantitativ darzustellen. Hierbei müssen auch die Wechselwirkungen der Stoffkreisläufe untereinander berücksichtigt werden. Durch das Verständnis der Funktionsweise natürlicher Stoffkreisläufe in geologischen Zeiträumen können anschließend die Auswirkungen anthropogener Einflüsse auf diese Stoffkreisläufe quantifiziert und deren Gefährdungspotenziale abgeleitet werden. Die dabei erarbeiteten Kenntnisse können zu wissenschaftlich tragfähigen Entscheidungen über die wirtschaftliche Nutzung von Ressourcen beziehungsweise den nachhaltigen Schutz oder gegebenenfalls erforderliche Sanierungsmaßnahmen gefährdeter Ökosysteme führen.
Stand der Entwicklung und Anwendung Der generellen Erkenntnis über die Existenz von Stoffkreisläufen und der qualitativen Charakterisierung von Reservoiren und Transferreaktionen steht ein nur unzureichendes Verständnis über die Bedeutung der einzelnen Reservoire und Stoffumsetzungen sowie der Wechselwirkungen zwischen den verschiedenen Stoffkreisläufen gegenüber. Globale Bilanzierungen über Reservoirgrößen, durchschnittliche Stoffkonzentrationen und die Höhe von Stoffumsetzungen der verschiedenen Prozesse innerhalb der Kreisläufe basieren häufig auf sehr generalisierenden Einstufungen und allzu lückenhaften Datenbanken. Ein zentrales Problem liegt häufig darin, dass gewonnene Erkenntnisse über Teilbereiche oder einzelne Prozesse in Ermangelung entsprechender Daten auf den globalen Maßstab übertragen werden. Dieses betrifft sowohl den natürlichen geogenen Stoffkreislauf als auch die Bedeutung des anthropogenen Eintrags und die sich daraus ergebenden Folgereaktionen. Die zunehmende anthropogene Beeinflussung der
63
64
Ökosysteme führt zu einer verstärkten Veränderung der Stoffhaushalte der einzelnen Kompartimente: der Atmosphäre, der Hydrosphäre, der Biosphäre und der Pedosphäre. Eine entsprechende Veränderung der Lithosphäre erfolgt mit einer zeitlichen Verzögerung. Nur langsam werden die Veränderungen in der Bedeutung einzelner Reservoire, vor allem aber veränderter Transferreaktionen identifiziert und die sich neu einstellenden Stoffflüsse quantifiziert. Hier sind es schwerpunktmäßig die terrestrischen Ökosysteme, die der direkten anthropogenen Beeinflussung ausgesetzt sind. Gleichzeitig herrschen hier die größten Defizite im Kenntnisstand, woraus sich der vielleicht dringlichste Forschungsbedarf ergibt. Für eine langfristige Neukonzeption unserer Ressourcennutzung unter gleichzeitiger Sicherung der Umweltbedingungen ist die Charakterisierung und Quantifizierung anthropogener Einträge in die geogenen Stoffkreisläufe erforderlich. Dabei darf es nicht primär um die Identifizierung potenzieller Schadstoffemittenten, sondern vor allem um eine gemeinsame, konstruktive Bewältigung zukünftiger Umweltproblematiken gehen. Wichtig ist in diesem Zusammenhang die Erkenntnis, dass nur ein multidisziplinär ausgerichteter Forschungsansatz zum Erfolg führen wird. Nur so kann ein neues Grundverständnis über den Stoffhaushalt der Erde erwachsen, aus welchen tragfähige, mittel- und langfristige Konzepte über die Nutzung natürlicher Ressourcen und den Schutz der Umwelt entwickelt werden können.
Programmziele Die erfolgreiche Erforschung von Stoffkreisläufen, ihren Reservoirgrößen und Transferreaktionen, sowie existierender Wechselwirkungen mit anderen Elementkreisläufen, setzt einen multidisziplinären Ansatz voraus. Dieser schließt die klassischen geowissenschaftlichen Disziplinen ein, geht aber in vielen Fragestellungen auch darüber hinaus. Insbesondere im Hinblick auf die Notwendigkeit, den Anteil der anthropogenen Beeinflussung zu quantifizieren, ist jedoch der Blick in die geologische Vergangenheit unerlässlich, da der Istzustand vieler Elementkreisläufe bereits heute in deutlichem Maße anthropogen verändert ist. Die Lösung der im Folgenden definierten Forschungsansätze setzt das gemeinsame Engagement universitärer und außeruniversitärer Forschungseinrichtungen voraus. Eine Einbindung der Industrie ist für eine Reihe der nachfolgend genannten Themen möglich und erwünscht. Zentrales Anliegen des Forschungskonzeptes „Stoffkreisläufe“ ist es, die Elemente in den Mittelpunkt der künftigen geowissenschaftlichen Forschung zu rücken, welche die Wechselwirkung zwischen geogen und anthropogen sowie zwischen Geo- und Biosphäre verkörpern: Kohlenstoff, Schwefel, Stickstoff und Phosphor. Von manchen auch als „Bioelemente“ bezeichnet, sind diese Stoffkreisläufe und ihre anthropogene Beeinflussung vor dem Hintergrund der erdgeschichtlichen Ent-
wicklung durch Defizite in der qualitativen und quantitativen Erfassung von Reservoirgrößen und Stoffflüssen gekennzeichnet. Hieraus ergibt sich der aktuelle Forschungsbedarf.
Notwendige Forschungs- und Entwicklungsaufgaben Ziel des vorliegenden Projektvorschlages ist die Charakterisierung und Quantifizierung der Stoffkreisläufe von Kohlenstoff, Schwefel, Stickstoff und Phosphor. Im Vordergrund des Interesses steht die anthropogene Veränderung der Kreisläufe, die vor allem – aber nicht ausschließlich – auf die terrestrischen Ökosysteme (Flussund Seesysteme, Böden, Wälder) direkten Einfluss nimmt. Für eine Quantifizierung des anthropogenen Anteils am heutigen (rezenten) Stoffkreislauf ist eine Revision der existierenden Daten zu den geogenen Kreisläufen erforderlich. Untersuchungen von Stoffkonzentrationen und -umsetzungen im klassischen geowissenschaftlichen Sinne waren in der Vergangenheit weitgehend auf Betrachtungen von Einzelaspekten in der Lithosphäre und Hydrosphäre beschränkt. Eine ganzheitliche Erfassung von Stoffkreisläufen sowohl im marinen als auch im terrestrischen Bereich erfordert aber in verstärktem Maße die Bewertung von Interaktionen dieser Systeme mit der Atmosphäre und der Biosphäre. Dies gilt vor allem dann, wenn der anthropogene Einfluss auf geogene Stoffumsetzungen quantifiziert werden soll. Grundlage für die Erfassung von Stoffverteilungen ist die Bestimmung von Stoffgehalten und den jeweils vorliegenden Bindungsformen in der Luft, in Böden und Sedimenten, im Wasser und im Gestein. Für eine Reihe von Einzelaspekten existieren qualitative und quantitative Daten in den Geowissenschaften und sachverwandten Disziplinen. Diese Kenntnisse gilt es zusammenzuführen, zu aktualisieren und zu ergänzen. Ziel ist eine solide Datenbasis zur Quantifizierung der einzelnen Reservoire innerhalb der Stoffkreisläufe. Neben der Quantifizierung der Reservoire ist für eine Bewertung der anthropogenen Beeinflussung geogener Stoffkreisläufe die qualitative und quantitative Kenntnis von Stoffumsetzungen, sowohl Reservoir-intern als auch durch Transferreaktionen zwischen den Reservoiren von entscheidender Bedeutung. Erst ein fundiertes Prozessverständnis ermöglicht es, Entscheidungen über nachhaltige Nutzung von Rohstoffen und das daraus erwachsende Gefährdungspotenzial für unsere Ökosysteme zu formulieren. Dabei ist es entscheidend, relevante Prozesse auf allen Maßstäben zu betrachten. Die detaillierte Erfassung dieser Prozesse und insbesondere der Reaktivität der einzelnen Verbindungen dieser Elemente in Abhängigkeit von Raum und Zeit macht parallele Forschungsansätze vom Labormaßstab bis zum Feldversuch erforderlich. Zusätzlich ist ein zeitliches Monitoring an ausgewählten repräsentativen, sowohl natürlichen als auch anthropogen beeinflussten Standorten unerlässlich. Mit dem hier dargestellten Forschungsvorhaben sol-
len die fehlenden Informationen ergänzt und eine darauf aufbauende zusammenfassende Interpretation im Sinne eines Gesamtverständnisses der Stoffkreisläufe auf der Erde erreicht werden. Zur differenzierten Betrachtung der häufig gleichzeitig wirksamen, teilweise gegenläufigen Prozesse steht den modernen Geowissenschaften eine Vielzahl von Untersuchungsmethoden zur Verfügung. Diese gehen über die reine Quantifizierung von Stoffinhalten hinaus und fördern das Prozessverständnis. Nur der gemeinsame Einsatz der Untersuchungsmethoden, die von sedimentologischen über chemische und isotopengeochemische Verfahren bis zur Modellierung reichen, erlaubt die qualitative und quantitative Erfassung von Stoffumsetzungen. Als Untersuchungsobjekte bietet sich eine Reihe von Systemen und Archiven an, die den terrestrischen und den marinen Bereich umfassen und verknüpfen. Gleichzeitig ist der Vergleich der Erkenntnisse aus rezenten Prozessen mit denen für die geologische Vergangenheit für eine realistische Quantifizierung der Bedeutung anthropogener Einflüsse auf die Stoffkreisläufe unerlässlich. Die im Folgenden definierten Forschungsansätze zu den Stoffkreisläufen des Kohlenstoffs, des Schwefels, des Stickstoffs und des Phosphors ergeben sich aus der gegenwärtigen wissenschaftlichen und gesellschaftspolitischen Diskussion über die Zukunftssicherung von Klima und Umwelt. Zahlreiche Anknüpfungspunkte existieren für den Standort Deutschland. Eine Bilanzierung globaler Stoffkreisläufe mit dem Ziel, Entscheidungshilfen für eine nachhaltige Bewirtschaftung der natürlichen Ressourcen abzuleiten, müssen jedoch diesem globalen Ansatz genügen, und damit über den direkten Bezug zum eigenen Standort hinausgehen. Kohlenstoff Steigende CO2-Konzentrationen in der Atmosphäre als Folge der Verbrennung fossiler Energieträger und der Abholzung der Wälder (ein Anstieg von circa 280 auf
360 ppm im Zuge der industriellen Revolution der vergangenen zwei Jahrhunderte) und die möglichen Folgen für das globale Klima sind in den vergangenen Jahren in den Vordergrund der wissenschaftlichen, vor allem aber der gesellschaftspolitischen Diskussion gerückt. Unsere subjektive Wahrnehmung über eine Zunahme von Naturkatastrophen auf der Erde in der jüngsten Vergangenheit hat die Frage nach den möglichen Ursachen für Klimaänderungen in der Bevölkerung allgegenwärtig gemacht. Die Geowissenschaften können und müssen sich dieser Frage entsprechend widmen. Die gegenwärtige Diskussion über die Korrelation existierender Datensätze zur globalen Temperaturentwicklung als ein Spiegel der klimatischen Entwicklung und solchen zur zeitlichen Entwicklung der atmosphärischen CO2-Konzentration behandelt dabei vordringlich die Frage nach einem möglichen kausalen Zusammenhang. Die Betrachtung von Datensätzen unterschiedlicher Reservoire und Zeitskalen (zum Beispiel historische Aufzeichnungen, Eiskerndaten, die Klimaentwicklung der letzten 500 Millionen Jahre) mündet derzeit in der Frage, ob die atmosphärische CO2-Entwicklung als Grund oder Folge der Temperaturentwicklung anzusehen ist. Unbestritten ist dabei die Wirkung des CO2 als sogenanntes Treibhausgas im Hinblick auf eine Verstärkung der Erwärmung. Kontrovers diskutiert wird jedoch, inwieweit der beobachtete CO2-Anstieg gerade in den direkten historischen Aufzeichnungen der vergangenen zwei Jahrhunderte und die zeitliche Korrelation mit der industriellen Revolution zwingend den Rückschluss auf einen kausalen Zusammenhang zulässt. Im Hinblick auf die geführte Diskussion über kausale Zusammenhänge zwischen dem CO2-Haushalt der Atmosphäre, unserer derzeitigen Klimasituation und der prognostizierten Klimaentwicklung ist jedoch nicht nur der CO2-Anstieg von großem Interesse, sondern auch die Tatsache, dass zwischen der Summe der globalen natürlichen und anthropogenen CO2-Emissionen und den möglichen natürlichen Senken für atmosphärisches CO2 ein Ungleichgewicht existiert (Tab. 2).
Tab. 2: Bilanz des jährlichen atmosphärischen CO2 -Umsatzes.
Quelle/Senke für atmosphärisches CO2
(1015 g C/Jahr)
Quellen Eintrag aus der Verbrennung fossiler Energieträger Eintrag aus Waldrodung und Landnutzung Natürlicher Eintrag aus Respiration Summe
6,3 1,6 110
Senken Atmosphärisches CO2-Reservoir Aufnahme durch Meerwasser Natürliche Aufnahme durch Photosynthese Summe
3,2 1,7 111
Netto-Ungleichgewicht
(1015 g C/Jahr)
117,9
115,9 2,0
65
66
Deutlich wird, dass als prinzipielle Senke das Meerwasser den gesteigerten anthropogenen Beitrag zum atmosphärischen CO2 nicht kompensieren kann. Als weitere Senke werden derzeit die Waldökosysteme und die Interaktion der terrestrischen Biosphäre mit dem atmosphärischen CO2 favorisiert. Hier gilt es, eine solide Datenbasis für Reservoirgrößen und mögliche Stoffflüsse zu schaffen. Vor allem die Frage einer möglicherweise gesteigerten Photosyntheserate durch erhöhte CO 2-Konzentrationen in der Atmosphäre gilt es zu ergründen. Eine Quantifizierung dieser alternativen CO 2-Senken (und möglicher weiterer Senken) ist ein vordringliches Forschungsziel zur Verwirklichung eines gesicherten Atmosphärenmodells bezüglich des CO 2-Haushaltes. Eine Betrachtung des heutigen atmosphärischen CO 2Budgets wird vielfach aus der Sicht der anthropogenen Beeinflussung durchgeführt. Hier gilt es, Datenarchive für die erdgeschichtliche Vergangenheit heranzuziehen, um eine klare Abgrenzung der natürlichen, geogenen von den anthropogenen Stoffflüssen zu erreichen. Für eine solche differenzierte Betrachtung und letztendliche Bilanzierung der einzelnen Reservoire und Transferreaktionen stehen zum Beispiel isotopengeochemische Untersuchungsmethoden zur Verfügung. Existierende Datensätze für atmosphärisches CO 2 sowie die verschiedenen anderen terrestrischen und marinen Kohlenstoffreservoire gilt es zusammenzuführen und zu ergänzen, um zu einer differenzierten, global gültigen Bilanzierung zu gelangen. Eine solche Bilanzierung ist nicht nur von wissenschaftlichem, sondern vorallem auch von gesellschaftspolitischem Interesse. Schwefel Schwefel gehört zu den am häufigsten vorkommenden Elementen in der Erdkruste und spielt eine wichtige Rolle für Mensch und Umwelt. Natürliche Vorkommen (teilweise als nutzbare Lagerstätten) finden sich in der Lithosphäre, der Pedosphäre, der Biosphäre, der Hydrosphäre und der Atmosphäre. Anthropogene Schwefeleinträge führen zur Beeinträchtigung der Umwelt, speziell der Atmosphäre und der Hydrosphäre. Schwefel kommt in einer Vielzahl von Oxidationsstufen sowohl in fester, flüssiger als auch gasförmiger Phase vor. Lithogener Schwefel liegt in oxidierter Form vor allem in sulfathaltigen Salinargesteinen vor. Reduzierter Schwefel ist überwiegend sulfidisch in magmatischen, metamorphen und vor allem sedimentären Gesteinen weit verbreitet. Das größte Reservoir gelösten Schwefels bildet das Meerwassersulfat. Quellen für atmosphärischen Schwefel sind einerseits vulkanogenes SO 2 und H2S sowie andererseits DMS (Dimethylsulfid) und Sulfat-Aerosole mariner Herkunft. Zudem werden auch durch die terrestrische Biosphäre eine Reihe anorganischer und organischer gasförmiger Schwefelverbindungen freigesetzt. Atmosphärischer Schwefel wird gegebenenfalls zu Sulfat oxidiert und durch nasse oder trockene Deposition wieder den terrestrischen und marinen Ökosystemen zugeführt. In den terrestrischen Ökosystemen wird der eingetragene Schwefel entweder festgelegt, oder über die Fließgewässer ins Meer transportiert.
Der Schwefelkreislauf ist einer der vom Menschen am stärksten beeinflussten Stoffkreisläufe. Die Bedeutung anthropogener Schwefelemissionen (zum Beispiel Verbrennung fossiler Energieträger, Nutzung natürlicher Ressourcen wie Erzabbau) ist mit denen aus natürlichen Quellen vergleichbar. Im globalen Maßstab existiert dabei ein regionales Ungleichgewicht zwischen den etablierten Industrieländern, in welchen Maßnahmen zur Reduktion anthropogener Schwefelemissionen effektiv umgesetzt werden und den heranwachsenden Industrienationen, in denen derzeit eine anthropogene Belastung der Umwelt durch ungehinderte Schwefelemissionen (noch) existiert. Über die Verfügbarkeit von Schwefel in den unterschiedlichen Bindungsarten für die verschiedenen natürlichen Reservoire liegen nur unzureichende Kenntnisse vor. Gleiches gilt für die system-internen Schwefelumsetzungen. Beides, Reservoire und Prozesse, sind qualitativ recht gut charakterisiert; eine detaillierte Quantifizierung auch im Sinne einer global repräsentativen Massenbilanz steht noch aus. Thematisch fokussierte Forschungsaktivitäten der letzten Jahre (zum Beispiel Waldschadensforschung) bieten für einzelne Reservoire jedoch entsprechende Datensätze. Als vordringlich wird neben einer aktuellen Bilanzierung der anthropogenen Schwefeleinträge vor allem die Charakterisierung und Bilanzierung der natürlich ablaufenden Umsetzungsprozesse in Hydrosphäre, Pedosphäre und Lithosphäre angesehen, die zu einer parziellen Kompensation, zumindest aber zu einer Zwischenspeicherung der anthropogenen Einträge führen können. Eine Quantifizierung dieser geogenen „Neutralisierung“ ermöglicht damit eine Abschätzung des Gefährdungspotenzials beispielsweise für Grundwässer durch fortlaufende anthropogene Beiträge. Zu betrachten sind vor allem wieder die terrestrischen Reservoire, welche durch die räumlich direkte anthropogene Beeinflussung entsprechenden Änderungen unterworfen sind. Für die system-internen Schwefelumsetzungen sind neben der Adsorption beziehungsweise Desorption von Sulfat und der Immobilisierung beziehungsweise Mineralisation von organischem Schwefel vor allem – häufig mikrobiell gesteuerte – Redoxprozesse von Bedeutung. Derartige Redoxreaktionen repräsentieren wichtige, quantitativ allerdings bisher nur unzureichend bekannte, Steuerungsparameter für den globalen Schwefelkreislauf. Dieser ist durch eine Reihe solcher geogener Prozesse sehr eng mit anderen Elementkreisläufen (zum Beispiel Kohlenstoff, Sauerstoff) verbunden. Eine detaillierte Charakterisierung und Quantifizierung der verschiedenen natürlichen Schwefelreservoire und der sie verbindenden Umsetzungsprozesse ermöglicht eine integrierte Interpretation dieser Kreisläufe und trägt somit entscheidend zum Gesamtverständnis des Systems Erde bei. Erst dadurch ergibt sich die Möglichkeit auch einer differenzierten Betrachtung der anthropogenen Beeinflussung des Schwefelkreislaufs. Der Mensch nutzt vor allem Sulfide (Erzabbau), Sulfate (zum Beispiel Gips und Anhydrit) und fossile Ener-
gieträger, die ebenfalls Schwefel in unterschiedlichen Bindungsformen enthalten. Bei der Nutzung entsteht Schwefeldioxid, welches über die Atmosphäre durch die atmogene Deposition (Stichwort saurer Regen) der Bio-, Pedo-, Hydro- und Geosphäre wieder zugeführt wird. Die Verwendung moderner Abgasreinigungsverfahren in den meisten Industrieländern führt heute zu einer effektiven Reduktion solcher Schwefelemissionen. Das Problem ist jedoch nicht beseitigt, sondern regional nur verlagert. Aufstrebende künftige Industrieregionen sind derzeit noch durch eine weitestgehend ungefilterte Abgabe von Schwefeldioxid in die Atmosphäre gekennzeichnet. Bei der Gewinnung sulfidischer Erze, aber auch beim Abbau von Braun- und Steinkohle, werden aus den Halden und Kippen in erheblichem Umfang Sulfidminerale in Kontakt mit Luftsauerstoff der Atmosphäre und damit zur Verwitterung gebracht. Dabei gelangen in großem Umfang Schwefelsäure, gelöstes Eisen und eine Reihe anderer Metalle durch Mobilisierungsprozesse im sauren
Milieu in das Sicker- und Grundwasser. Bisherige nationale und internationale Forschungsansätze zu diesem Thema, das unter dem Stichwort „acid mine drainage“ bekannt ist, liefern bereits qualitative und quantitative Datensätze. Sie gilt es zu ergänzen, um entsprechende allgemein gültige Sanierungs- oder gar Vermeidungskonzepte zu entwickeln. Die Tatsache der allmählichen regionalen Verlagerung auch dieses Problems in die aufstrebenden Industrieregionen der Erde darf nicht über den existierenden Forschungsbedarf hinwegtäuschen. Die Charakterisierung des anthropogenen Schwefeleintrags, vor allem aber die Quantifizierung der existenten natürlichen „Heilungsmöglichkeiten“, steht in direktem und sehr aktuellem Bezug zur Umwelt und damit letztendlich unserer eigenen Lebensqualität. Nährstoffe (Stickstoff und Phosphor) Führte die industrielle Revolution unter Ausbeutung natürlicher metallischer Ressourcen und nicht erneuerbarer Energien zu einer nachhaltigen Beeinflussung der
67
Abb. 28: Geogener und anthropogener Stoffkreislauf des Schwefels (stark vereinfacht). Schwefelverbindungen werden durch verschiedene geochemische und biologische Prozesse gebildet. Geogener und anthropogener Schwefelstoffkreislauf überlagern sich zum Beispiel bei der SO2 -Emission. Der geogene Kreislauf schließt sich über die biogene und chemische Sedimentation.
68
Elementkreisläufe von Kohlenstoff und Schwefel, so sind es Landnutzung, Ackerbau und Viehwirtschaft, die für eine anthropogene Veränderung der Stoffkreisläufe von Stickstoff und Phosphor verantwortlich sind. Im Kontext natürlich ablaufender Prozesse sind diese Elemente als Nährstoffe zu betrachten, deren Verfügbarkeit lokal/regional biologisches Wachstum steuert, global aber auch Einfluss auf die Biodiversität haben kann. Der Druck einer wachsenden Weltbevölkerung resultiert jedoch durch den vermehrten Einsatz dieser Nährstoffe zur Steigerung landwirtschaftlicher Erträge gleichzeitig in einer Beeinflussung der Atmosphäre, Hydrosphäre und Pedosphäre von substanziellem Ausmaß. Der globale Stickstoffkreislauf wird seit Beginn des massiven Einsatzes Ammonium-haltigen Kunstdüngers entscheidend durch menschliche Aktivitäten gesteuert. Auswirkungen zeigen sich sowohl lokal (beispielsweise in Änderungen der Pflanzenassoziationen auf Grünflächen) als auch regional (Zunahme der Ammoniumkonzentration im Niederschlag) und global (Zunahme der Konzentration des Treibhausgases N 2O in der Atmosphäre). Im Gegensatz zur hinreichend genauen Kenntnis der Reservoirgrößen im Stickstoffkreislauf ist das Wissen um die Größe der einzelnen Stoffflüsse ungenügend. So variieren die Abschätzungen sowohl für die prä-anthropogen bedeutenden Flüsse (zum Beispiel biologische N2-Fixierung) als auch für die heutigen Stoffflüsse (zum Beispiel N 2O-Freisetzung) um Größenordnungen. Dies ist vor allem auf eine bislang unzureichende, meist nicht repräsentative Datenbasis zurückzuführen. Problematischer ist ein existierendes Defizit im Prozessverständnis, insbesondere auf verschiedenen Zeitskalen. Gerade die Änderungen, die durch die wechselnde Landnutzung sowie die Temperaturänderung in den letzten 100 Jahren hervorgerufen worden sind, entziehen sich bislang der Prozessbeschreibung. Dabei fällt besonders die Betrachtung von Stickstoff-Teilreservoiren mit verschiedener Verweilzeit – zum Beispiel Pflanzen und Böden –und die dadurch variablen Stoffflüsse auch auf überregionaler Ebene (zum Beispiel Nährstoffexport) ins Gewicht. Beispielsweise zeigen Daten europäischer Flüsse für die Neunziger Jahre unveränderte Konzentrationen für Nitrat und den Gesamtgehalt an oxidiertem Stickstoff, während Ammoniumgehalte innerhalb des Beobachtungszeitraumes sinken. Dennoch liegen diese Gehalte noch deutlich oberhalb natürlicher Hintergrundwerte. Auch existiert ein klarer Gradient zwischen Flusssystemen niedriger und hoher Breiten. Gleichzeitig zeigen Bilanzierungen von Ein- und Austrägen in Flusssystemen, dass teilweise weniger als 30 % des anthropogen eingetragenen Stickstoffs mit den Flüssen ins Meer exportiert wird, während die verbleibenden 70 % umgesetzt oder in Böden zwischengespeichert werden. Nur eine genaue Kenntnis der Nährstoffexporte aus terrestrischen Reservoiren über die Flüsse ins Meer ermöglicht jedoch eine verlässliche Prognose über mögliche Wechselwirkungen mit den randmarinen Ökosystemen. Qualitative Kenntnisse dieser Art existieren nur für ausgewählte Wasser-
einzugsgebiete. Schließlich scheinen Unterschiede in der prinzipiellen Bindungsform gelösten Stickstoffs in den Flusssystemen zu existieren, vorwiegend als Nitrat auf der anthropogen beeinflussten Nordhemisphäre oder als gelöste organische Stickstoffkomponenten in den natürlichen Waldökosystemen gemäßigter südlicher Breiten. Spiegelt diese Beobachtung zwingend den anthropogenen Einfluss wider? Problematisch ist bislang auch die Abschätzung der Stoffflüsse für den von Menschen unbeeinflussten Stickstoffkreislauf. Dies beruht zum einen auf einer ungenügenden Kenntnis der Organismen, welche die prinzipiellen Transferreaktionen innerhalb des Stickstoffkreislaufs steuern. So wurden die Abschätzungen der biologischen N2-Fixierung im Ozean nach Neubeschreibung planktonischer Kleinstlebewesen in den letzten zehn Jahren um 50-100 % erhöht. Zum anderen ist unklar, welche Bandbreite natürlicher Variabilität auf längeren Zeitskalen (vor allem glazial bis heute) entwickelt war und welche Bedeutung einzelne Prozesse für diese Änderung hatten. Neben einem offensichtlichen Forschungsbedarf im Hinblick auf unser Verständnis und die Quantifizierung von Transferreaktionen im Stickstoffkreislauf sind vor allem die Wechselwirkungen mit dem Kohlenstoff-, dem Phosphor-, und dem Schwefel-Kreislauf bislang meist + nur qualitativ gefasst. So wird die Emission von NH4 in mittleren Breiten nach atmosphärischem Transport in die höheren Breiten als ein wesentlicher Steuerungsfaktor der erhöhten CO 2- Aufnahme in nordeurasischen Waldökosystemen durch diese Art der N-Düngung bewertet. Das Zusammenspiel mit dem Phosporkreislauf zeigt sich deutlich in der Steuerung der Primärproduzenten-Assoziation in randmarinen Ökosystemen in Abhängigkeit vom verfügbaren N:P-Angebot (beispielsweise in der Ostsee). Ein Zusammenhang zwischen Stickstoff- und Schwefelkreislauf stellt die Bildung von NH 4SO in der Atmosphäre dar, was sowohl die chemische Zusammensetzung des Niederschlags als auch die Wolkenbildung maßgeblich mit steuert. Auch für den Phosphorkreislauf begann das massive Eingreifen des Menschen mit der Verwendung von Phosphat-Kunstdünger. Die Auswirkungen dieser verstärkten Ausbringung pflanzenverfügbaren Phosphats auf Ökosysteme an Land ist in den letzten 25 Jahren gründlich untersucht worden. Gerade die teils katastrophalen Folgen für Seeökosysteme hatten eine systematische Erforschung der Prozesse zu Folge. Nachfolgend wurden in den letzten 15 Jahren zumindest in den meisten Ländern Nordeuropas erfolgreich Konzepte verwirklicht, die diffusen Phosphoreinträge (aus der Landwirtschaft aber auch den kommunalen Abwässern) in Ökosysteme zu vermindern. Aber auch für Nordeuropa besteht offenkundig noch erhöhter Forschungsbedarf. So wird das in den letzten 50 Jahren in den randmarinen Sedimenten abgelagerte Phosphat durch Änderungen der Produktivität und damit der Redoxverhältnisse an der Sediment/Wasser-Grenzfläche in einigen Regionen wieder freigesetzt. Die genauen Mechanismen der Bindung und Freisetzung, auch die dadurch hervorgerufenen Stoffflüsse, müssen für
eine Vielzahl von Regionen noch bestimmt werden, um sinnvolle Konzepte zum Ökosystemmanagement entwickeln zu können. Gerade hier zeigt sich die enge Verknüpfung von Phosphor- und Stickstoffkreislauf. Über die variablen Verhältnisse der Nährstoffe N:P wird entscheidend mit bestimmt, welche Änderungen sich in der Nahrungskette ergeben und ob sich möglicherweise Organismen in Randmeeren weiter ausbreiten, die toxische Verbindungen produzieren und als schädliches Algenmassenauftreten auch wirtschaftlich bedeutende Schäden verursachen. Für beide Stoffkreisläufe – Stickstoff und Phosphor – ist der Einbezug von GIS-gestützten Datenbanken für eine repräsentative und quantitative Erfassung der Stoffflüsse anzustreben. Daneben ist eine genauere Aufklärung von Prozessen – sowohl von Seiten der beteiligten Organismen als auch von der oft in Böden/Sedimenten ablaufenden Redoxprozesse – anzustreben. Notwendig für die Quantifizierung von Stoffflüssen ist der differenzierte Einsatz unterschiedlichster Methoden (Mikrobiologie, Geochemie, Isotopenanalytik). Unter Einbeziehung eines soliden Prozessverständnisses ermöglichen modellgestützte Bilanzierungen schließlich die Entwicklung tragfähiger Konzepte zum Ökosystemmanagement auf globalem Maßstab.
69
70
Das gekoppelte System Erde – Leben: Dynamik der Biosphäre und Steuerung der globalen Umwelt
A
lle Prozesse, welche die oberflächennahen Bereiche der festen Erde, die Hydrosphäre und die Atmosphäre betreffen, laufen unter Beteiligung der Biosphäre ab. Auch der Mensch lebt von und mit der Biosphäre. Daher ist die Kenntnis der Prozesse und der Dynamik der Biosphäre essenziell, wenn es darum geht, das System Erde zu verstehen und Ressourcen der Geo-, Hydro- und Atmosphäre zu nutzen. Das FuE-Programm GEOTECHNOLOGIEN begreift die Erde als „Messinstrument“ für die mit der Umwelt verbundenen Prozesse, in deren natürliche Veränderlichkeit der Mensch eingreift. Für die Vorhersage zukünftiger Entwicklungen ist die qualitative und quantitative Unterscheidung von natürlichen und anthropogen bedingten Veränderungen von grundsätzlicher Bedeutung. Umwelt- und Klimaänderungen zeigen kurzfristige Schwankungen und langfristige Trends. Deren Ablauf, Schnelligkeit und Folgen sind in erdgeschichtlichen Dokumenten überliefert. In vielen Fällen kann der Ablauf von Prozessen in der geologischen Vergangenheit in „Echtzeit“ gemessen werden. Die erdgeschichtliche Entwicklung der Biosphäre gibt uns ein Maß für Eigenschaften, Raten und Schwankungsbreiten der Prozesse, die die Evolution von kleinsten Mikroben bis zum Menschen kontrollieren, und erlaubt es, die Einflüsse der Biosphäre auf die globale Umwelt zu bestimmen.
Biologische und paläobiologische Daten erweitern die Aussagen über Struktur und Dynamik des gekoppelten Systems „Erde – Leben“ in der Vergangenheit und heute. Vergleiche der heutigen Situation mit der erdgeschichtlichen Entwicklung liefern den notwendigen Rahmen, um die Sensibilität des Systems Erde-Leben gegenüber Änderungen der Atmosphäre, Geosphäre und Biosphäre zu verstehen und um mögliche Konsequenzen von Änderungen in den Ökosystemen für die Menschheit zu identifizieren. Die Vergleiche ermöglichen eine Beurteilung der in der geologischen Zeit schwankenden Wechselwirkungen zwischen Bio-, Geo- und Atmosphäre. Hierbei muss beachtet werden, dass sich die heutige Erde in einem speziellen Zustand befindet, der durch niedrigen Meeresspiegel, Vereisung der beiden Polkappen und durch eine starke thermohaline Zirkulation der Ozeane charakterisiert ist.
71
Themenschwerpunkt: „Das gekoppelte System Erde – Leben: Dynamik der Biosphäre und Steuerung der globalen Umwelt“. Förderstatus BMBF: Zur Zeit keine Förderung des BMBF. Förderstatus DFG: Zur Zeit keine Förderung durch die DFG.
Das gekoppelte System Erde – Leben: Dynamik der Biosphäre und Steuerung der globalen Umwelt
D
72
ie Geschichte der Biosphäre und des Lebens ist durch Diskontinuitäten gekennzeichnet, die sich in auffallenden Änderungen in der Vielfalt der Organismen (Biodiversität) dokumentieren. Diese Änderungen waren in der Erdgeschichte mit evolutiven Innovationen, der Besiedlung neuer Lebensräume und „Massensterben“ verbunden. Wir erleben heute eine Biodiversitätskrise, die nach Ansicht mancher Wissenschaftler in Intensität und Schnelligkeit nahe an große Massensterben der geologischen Vergangenheit herankommt oder diese möglicherweise bereits übertrifft (Regenwälder und Riffe als die augenfälligsten Ökosysteme stellvertretend für andere Lebensräume). Viele Massensterben der geologischen Vergangenheit werden als Ausdruck der Unmöglichkeit einer Anpassung an dramatische Umweltveränderungen gedeutet, die durch erdgebundene oder/und extraterrestrische Ursachen bedingt waren (Klimaänderungen, Vulkanismus, Revolutionen im Zirkulationssystem der Weltmeere, Meteoriteneinschläge). Biodiversität Biodiversität lässt sich auf taxonomischer, molekularbiologischer, ökologischer und auch gruppendynamischer Ebene erfassen. Voraussetzung für eine moderne Biodiversitätsforschung sind eine Neubewertung der paläontologischen Datenbasis, die Einbindung dieser Datenbasis in ein Konzept, in welchem die Zusammenhänge zwischen Evolution und Umwelt in klarer Weise berücksichtigt werden und gezielte Untersuchungen über den prognostischen Aussagewert von Biodiversitätsänderungen. Biodiversitätsforschung muss das zukünftige Ziel sowohl von bestehenden, als auch von zu schaffenden Forschungsinstituten sein, deren Aufgabe die Untersuchung der Entwicklung der Biosphäre ist. Obwohl die heutige und auch die fossile Artenvielfalt nur teilweise in auswertbarer Weise untersucht ist, liefern Biodiversitätsdaten wichtige Hinweise auf die
Wechselbeziehungen zwischen Bio- und Geosphäre. Die heutige Diversität zeigt deutliche und zum Teil dramatische Veränderungen. Pro Jahr verschwinden mehr als 1.000 Arten. Die Zahl scheint exponenziell zu steigen. Eine differenzierte Beurteilung dieser von anthropogenen Einflüssen überlagerten Erscheinung ist nur in Kenntnis der historischen Entwicklung der Diversitätsmuster möglich. Wie Beispiele aus der Erdgeschichte zeigen, werden Artensterben und Artenentstehung durch ökologische Stresssituationen begünstigt. Größere quantitative Einschnitte in die Paläodiversität liefern Hinweise auf verstärkte Umweltkontrollen. Für die heutige Biodiversitätskrise werden geogene und anthropogene Faktoren verantwortlich gemacht, die in enger Wechselbeziehung mit Klimaveränderungen stehen. Die Entwicklung von Biodiversität und Ökosystemen in der geologischen Zeit ermöglicht die kritische Beurteilung von natürlichen, nicht-anthropogen beeinflussten Stoffflüssen in den heutigen Ozeanen und an Land. Für die Beurteilung aktueller Biodiversitätsveränderungen sind insbesondere diejenigen regionalen oder globalen Veränderungen in der Formenvielfalt der terrestrischen und marinen Organismen von Interesse, die durch Wechsel in der ozeanischen Zirkulation und damit verbundenen Klimaänderungen kontrolliert wurden. Geschwindigkeit und Auswirkungen derartiger Wechsel lassen sich aufgrund von Paläo-Daten rekonstruieren. Für die im FuEProgramm GEOTECHNOLOGIEN angestrebten Fortschritte in der Kenntnis der das System Erde steuernden Prozesse sind auf Paläo-Daten aufgebaute Modellvorstellungen von grundsätzlicher Bedeutung. Eine kritische Diskussion von Paläodiversitätsdaten trägt wesentlich zur Beantwortung der Frage nach der Funktionalität der Formenvielfalt und damit nach ihrer Bedeutung für die Stabilität von Ökosystemen bei. Lokale, regionale und globale Änderungen der Paläobiodiversität im marinen und terrestrischen Bereich gestatten Aussagen über das Regenerationspotenzial der Organismenvielfalt nach natürlichen oder anthropogenen Eingriffen. Beispiele liefern hier Riffe und Regenwälder oder Wattgebiete. Neuere Daten deuten etwa darauf hin, dass die recoverytime nach größeren Artensterben 3 bis 5 Millionen Jahre umfasst und zwar weitgehend unabhängig vom Ökosystemtyp. Geobiologische Steuerung des Systems Erde Das System Erde wird wechselseitig durch die Dynamik biologischer und physikalisch-chemischer Prozesse kontrolliert. Diese gekoppelte Kontrolle begann mit der Entstehung komplexer organischer Moleküle vor etwa 4 Milliarden Jahren und prägte nachhaltig die Entwicklung der Geo-Biosphäre. Seit dieser Zeit haben Stoffwechselprozesse der Organismen das System Erde gesteuert. Die jeweils vorhandenen Lebensräume werden durch diese physiologischen Prozesse andauernd verändert. Dies bedingt die Evolution und steuert dadurch die Dynamik der Biosphäre und die Entwicklung von Ökosystemen.
73
Abb. 29: Stammbaum des Lebens.
74
Beispiele sind die Entwicklung einer frühen methanreichen Atmosphäre durch anaerobe Stoffwechselprozesse, die Sauerstoffentwicklung durch beginnende Photosynthese, Organo-/Biomineralisation, Veränderung der Ozeanwasserchemie (Erniedrigung der Alkalinität, Kalziumentgiftung), und die Bildung von Karbonatgesteinen (Riff-Evolution). Möglicherweise induziert der biogen verursachte Übergang von einer methanreichen zu einer sauerstoffreichen Atmosphäre im Präkambrium die Bildung einer mehr oder weniger vollständig vereisten „snowball earth“. Die Entwicklung der Landpflanzen verändert den Kohlenstoffkreislauf, kontrolliert die kontinentale Verwitterung, den lang- und kurzzeitigen Ablauf des terrestrischen Sedimentationsgeschehens und hat Auswirkungen auf die Stärke des terrigenen Eintrags in das Meer. Auch das Klimasystem wird durch Organismen vielfältig beeinflusst. Physiologische Prozesse steuern die Kreisläufe der wichtigsten Treibhausgase (H2O, CO2, CH4), die Vegetation beeinflusst den Strahlungs- und Impulsaustausch mit der Atmosphäre. Schließlich führen Degradationsprodukte der Organismen zu großen organischen Lagerstätten (Kohlenwasserstoffe, Kohle, Gashydrate). Viele Organismen bilden mineralische Hartteile, die geochemische Proxy-Daten für bestimmte und in der Zeit wechselnde Umweltbedingungen darstellen. Als Biomarker beziehungsweise Chemofossilien erhaltene organische Moleküle gestatten Aussagen über die Entwicklung von Stoffkreisläufen, evolutiven Veränderungen und Diversitätsmustern. Die Fähigkeit der Biomineralisation führt zur Bildung von Skelettkonstruktionen, welche das Wechselspiel von Umwelt, Anpassung und Funktion/Bauplan widerspiegeln. Evolutive Prozesse und Umweltänderungen laufen in verschiedenen Zeit- und Raum-Skalen ab, die alle Bereiche vom Giga- bis Nano-Bereich umfassen. Diese Skalen beinhalten orbitale und solare Kontrollen (zum Beispiel tidal bundles, Sonnenflecken, Milankovitch-Zyklen, diurnale und saisonale Zyklen) und geodynamisch gesteuerte Prozesse (Wilson-Zyklus, SedimentbeckenEntwicklung, Icehouse/Greenhouse-Wechsel, SandbergZyklus, lang- und kurzfristige Änderungen ozeanischer Parameter [Meeresspiegel, Zirkulationsmuster, zum Beispiel El Nino] ). Derzeit werden die für die Messung der verschiedenen Skalen einsetzbaren Methoden (zum Beispiel Sclero- und Dendrochronologie, hochauflösende Biostratigraphie, quantitative Paläoökologie) verfeinert und ausgebaut. Umgekehrt verändert die Biosphäre in vielfältiger Weise physikalische und chemische Faktoren der Umwelt. Beispiele für biologische Rückkopplungen auf dem Festland sind der Einfluss der Vegetation auf den Sauerstoff- und Kohlenstoffkreislauf, auf die Bodenbildung und auf die Art und Intensität der Erosion. Wechsel in der Biomineralisation planktischer und benthischer Organismen und in deren photosynthetisierender Fähigkeit haben den CO2/HCO3/CO3-Haushalt der Meere und den CO2-Gehalt der Atmosphäre maßgeblich beeinflusst. Produktivität und Verteilung mariner Organismen, insbesondere des Plankton, steuern nachhaltig die Sedi-
mentbildung in ozeanischen Becken. Von grundsätzlicher Bedeutung für die Lagerstättenprospektion ist die in der geologischen Zeit wechselnde Akkumulation organischer Substanz und die damit verbundene unterschiedliche Möglichkeit der Bildung von Kohlenwasserstoff–Muttergesteinen. Einschnitte in der Paläobiodiversität, Strukturveränderungen von fossil überlieferten Ökoystemen in der Erdgeschichte (Beispiele: Riffe, Plankton-Benthos-Vergesellschaftung, Waldökosysteme) sowie evolutive Innovationen dokumentieren die Auswirkungen von Änderungen der Paläoumwelt auf den Aufbau der Biosphäre. Biogene Sedimente (die heute als Coccolithen- und Foraminiferenschlämme der Tiefsee etwa 40 % der Lithosphärenoberfläche bedecken) sind Ausdruck der maßgeblichen Steuerung des Systems Erde durch die Evolution der Biosphäre. Dem Meeresboden kommt dabei eine entscheidende Rolle zu, da von ihm aus zahlreiche Kontrollen der Umwelt ausgehen. Die in den Paläo-Daten überlieferte Veränderung des ozeanischen Planktons gestattet Aussagen über die Wechselwirkungen zwischen Klima, ozeanischen Zirkulationsmustern und Ökosystem-Veränderungen im Flach- und Tiefmeer. Die oben skizzierten Beziehungen zwischen Erde und Leben sind in mehreren, im FuE-Programm GEOTECHNOLOGIEN formulierten Schlüsselthemen von Bedeutung. Die Erklärung der Entstehung und Geschichte von Sedimentbecken zum Beispiel erfordert (insbesondere bei Karbonatgesteinen), klare Vorstellungen über die biologische Kontrolle der Sedimentation. Da biologisch bedingte Stoffkreisläufe Langzeitprozesse beinhalten, ist die Erweiterung der auf die Gegenwart und die jüngste Vergangenheit ausgerichteten Untersuchungen auf die erdgeschichtliche Vergangenheit dringend erforderlich. Diese Erweiterung muss über die relativ kurze Zeit des Holozäns und Pleistozäns hinausgehen, um die in der Geschichte des Systems Erde – Leben auftretende Bandbreite der Interaktionen zwischen Bio- und Geosphäre zu verstehen. Dies hat praktische Auswirkungen für die Ressourcen-Exploration und die Nutzung von Rohstoffen (zum Beispiel Kohlenwasserstoffen, sedimentären Erzen, Salzen, Steinen und Erden). Von besonderer Bedeutung ist der „Blick zurück“ in die Erdgeschichte bei Fragen über Art, Ausmaß und Geschwindigkeit von natürlichen Klimavariationen. Hier müssen die Ergebnisse der zur Abschätzung der zukünftigen Klima-Entwicklung durchgeführten Modellierungen mit den „realen Verhältnissen“ verglichen werden, wie sie aus Paläo-Proxy-Daten abzuleiten sind (Validierung der Klimamodelle). „Geobiologie“ ist eine neben der Geochemie und der Geophysik stehende und mit diesen verflochtene Kerndisziplin der Erdwissenschaften. Das Konzept der Geobiologie geht von den wechselseitigen Beziehungen zwischen Organismen und Umwelt im Kontext der Erdgeschichte aus. Geobiologie ist kein Synonym von Paläontologie und geht in Zielsetzung, Methodik und Bandbreite über die traditionelle Paläontologie hinaus. Ziel ist das Verständnis der Interaktionen von biologischen und geologischen Prozessen im System Erde.
Forschungsgegenstand ist die Wechselwirkung der Biosphäre mit anderen Subsystemen durch die gesamte Erdgeschichte. Von besonderer Bedeutung sind Untersuchungen über die Evolution physiologischer Prozesse (zum Beispiel Organo/Biomineralisation), über evolutive und andere Bio-Events (zum Beispiel Anpassung, Aussterben und Regeneration der Organismen), über die Art der Beteiligung von Organismen bei bio-geochemischen Kreisläufen und bei der biogenen Gesteinsbildung, über die Zusammenhänge von paläoökologischen Mustern und (durch geochemische und geologische Proxy-Daten widergespiegelte) Umwelt- und Lebensraumbedingungen, sowie über die Reaktionen von Ökosystemen auf Umweltänderungen. Der geo-biologische Forschungsansatz geht vom Postulat aus, dass physiologische Prozesse der Organismen steuernd in die bio-geochemischen Stoffkreisläufe eingreifen und dadurch geologische Prozesse erheblich beeinflussen – und nicht umgekehrt. Man kann diese Vorgänge als geophysiologische Prozesse auffassen, die Einblicke in Stoffumsätze zulassen, welche unter normalen thermodynamischen Bedingungen nicht ablaufen würden. Die Produkte dieser geophysiologischen Vorgänge sind eine Vielzahl von Fluiden und unterschiedlichen Mineralen, welche Gesteine auf- und abbauen, sowie deren qualitativen und quantitativen Bestand kontrollieren. Gekoppelte biologische und geologische Prozesse sind möglicherweise nicht nur auf das System Erde beschränkt, wie die von amerikanischen Kollegen mit den Namen „Astrobiologie“ und „Exobiologie“ verbundene derzeitige Diskussion über den Mars zeigt. In der Geobiologie steht die Untersuchung der Hintergründe für auffallende Organismen-Wechsel in ausgewählten Intervallen der Erdgeschichte im Vordergrund. Sie behandelt die biologisch/geologischen Wechselwirkungen und Prozesse, die als zentrale Faktoren die biotische Evolution ermöglichten und die Biodiversität steuern. Die neue Betrachtungsweise bedingt eine enge interdisziplinäre und integrierte Zusammenarbeit zwischen Paläontologie, (Paläo-)Biologie, Geochemie und Geobiochemie und den weiteren geowissenschaftlichen Disziplinen. Geobiologie erfordert interdisziplinäres Arbeiten und kann somit innovativ in die tradierten Denkstrukturen eingreifen. Die Paläontologie repräsentiert die biologische Komponente der Geowissenschaften und die erdgeschichtliche Seite der Biowissenschaften. Insbesondere in Deutschland irrtümlicherweise noch immer als „deskriptive Wissenschaft“ betrachtet, ist das Selbstverständnis der modernen Paläobiologie durch prozessorientierte Forschung ausgezeichnet; diese macht die „effects of past global change on life“ in möglichst engen erdgeschichtlichen Zeitscheiben verständlich und erklärt die (auch die heutige Lebewelt steuernden) Beziehungen zwischen Evolution und Umwelt. Erdsystemmanagement für die Gegenwart und Zukunft erfordert die Berücksichtigung der natürlichen Veränderungen von Geo- und Biosphäre in der Vergangenheit. Die Untersuchung dieser Veränderungen ist ein wesentlicher Aspekt nahezu aller Forschungsinitiativen,
die sich im internationalen und nationalen Rahmen in jüngster Zeit mit der Evolution des Systems Erde beschäftigen: diese Ziele erfordern innovative Forschungsansätze (wie sie zum Beispiel durch das GeobiologieKonzept angeregt werden), sowie ein neues Management der paläontologischen Datenbasis unter Berücksichtigung der Biodiversitäts- und Ökosystemforschung. Zusätzlich müssen eine enge Zusammenarbeit und Verflechtung mit biologischen Disziplinen (Molekularbiologie, Evolutionsbiologie, Mikrobiologie, Ökologie, Morphologie, Systematik), geologischen Disziplinen (insbesondere Sedimentologie, Geochemie, Faziesanalyse und Paläogeographie) und ozeanisch-atmosphärischen Wissenschaften (Ozeanographie, Klimaforschung) erfolgen. Dabei wird künftig der Kopplung von Klimamodellen mit Biom- beziehungsweise Vegetationsmodellen eine besondere Bedeutung zukommen. Moderne Paläontologie ist Paläo-Umweltforschung. Paläo-Daten (insbesondere paläo-ozeanographische und paläoklimatische Daten) sind unerlässlich für eine wissenschaftlich untermauerte Prognostik von denkbaren Umweltveränderungen.
Paläo-Umweltforschung Heute und früher Der „Blick zurück in die Erdgeschichte“ ist aus verschiedenen Gründen erforderlich: Die letzten 200.000 Jahre sind als erdgeschichtlicher Abschnitt viel zu kurz und nicht repräsentativ, um daraus Überlegungen über die möglichen Ursachen für den heutigen Wechsel in Ökosystemen abzuleiten. Die heutige Icehouse-Welt ist nur für einen Teil der Zeit des Phanerozoikums repräsentativ (Abb. 29). Prozessmodellierungen, die auf ein tieferes Verständnis von Klima und Umwelt abzielen, werden an der Rezentsituation geeicht und parametrisiert. Die Modelle können dementsprechend nur rezentähnliche Situationen behandeln oder voraussagen. Auch Überlegungen über aktuelle Klimaänderungen erfordern die Berücksichtigung von Paläo-Daten. Erst dadurch können kurzfristige Klima-Variabilität, natürliche längerzeitige Klimaschwankungen und KlimaTrends auseinandergehalten werden. Die Berücksichtigung paläo-biologischer Daten ermöglicht in Verbindung mit einer verbesserten Zeitmessung eine präzisere Abschätzung der Geschwindigkeit signifikanter Umweltänderungen. Eine historische Betrachtungsweise ist notwendig, um die Auswirkung, von in der Gegenwart beobachtbaren Entwicklungen (Meeresspiegelschwankungen, Einschnitte in der Biodiversität und in Ökosystemen), fundierter beurteilen zu können. Eine historische Betrachtungsweise ist aber auch notwendig, um zu einem neuen Verständnis von Ressourcen zu gelangen, deren Bildung durch Evolution und geobiologische Prozesse gesteuert wurde. Beispiele hierfür sind die in der geologischen Zeit unterschiedliche Verteilung von Erdölmuttergesteinen und Sulfidlagerstätten oder der Wechsel in Verteilung und Häufigkeit von Phosphaten und Karbonatge-
75
76
Abb. 30: Zonen der Biosphäre. Leben hat sich in der „Flachen Biosphäre“ und in der „Tiefen Biosphäre“ entwickelt. Eine besondere Herausforderung der kommenden Jahre wird die durch Tiefbohrungen und an hydrothermalen Austrittsstellen in der Tiefsee zugängliche Untersuchung der „Deep Biosphere“ sein. Die an die tiefe Biosphäre angepassten Organismen zeigen, wie die frühe biologische Evolution des Systems Erde ablief und in welcher Weise Mikroorganismen zur Bildung von Lagerstätten beitragen.
steinen. Der „Blick zurück“ erleichtert die Diskussion heutiger Extrembiotope (Abb. 30), wie sie in der flachen und tiefen Biosphäre auftreten (Beispiele: Polare Meere, Tiefsee-Leben im Bereich kalter und warmer hydrothermaler Quellen, Mikroben in der Erdkruste). Der Vergleich rezenter extremophiler Organismen mit präkambrischen Fossilien wird von wesentlicher Bedeutung für die Diskussion über die Entstehung des Lebens und über die Frühzeit des Systems Erde sein.
Stoffwechselprozesse und Umweltveränderungen Die Entwicklung des Systems Erde wird seit Beginn der organischen Evolution nachhaltig durch Stoffwechselprozesse beeinflusst. Im Prinzip lassen sich in der zeitlichen Entwicklung des Systems Erde vier physiologisch gesteuerte Ereignisse erkennen (Abb. 30):
1. Physiologische Prozesse laufen seit mindestens 3.8 Milliarden Jahren, vermutlich schon seit 4 Milliarden Jahren ab. Belegt sind diese Prozesse durch spezifische C-Isotopen-Signale und durch fossile Reste in den 3.8 Milliarden Jahre alten Isua-Gesteinen von Grönland. Der Beginn des C-Stoffwechsels führte zu einer spezifischen, von Organismen abhängigen Fraktionierung. Die meisten physiologischen Vorgänge liefen vermutlich unter anaeroben und heißhydrothermalen Bedingungen ab, belegt durch 16sRNA-Analysen an Eubacterien und Archaea, deren älteste Formen nur durch anaerobe thermophile Taxa vertreten sind. Es ist wahrscheinlich, dass dieser ursprüngliche Zustand durch die tiefen Zonen der heutigen Biosphäre repräsentiert wird („Deep Biosphere“-Hypothese). 2. Die Entwicklung von Photosynthese-Systemen (Chlorophyll und andere Pigmente, Membranstapel-Thylakoide) in verschiedenen Bakterien vor über 3 Milliarden Jahren führte zur Freisetzung von Sauerstoff und damit verbunden zu einer tiefgreifenden Umgestaltung des Systems Erde. Der Aufbau einer O2-Atmosphäre veränderte die biochemischen und geochemischen Prozesse der „Flachen Biosphäre“ (Erdoberfläche/Böden, Hydrosphäre, Atmosphäre) nachhaltig. O2-Stress führte zur Bildung von komplexen mikrobiellen Gemeinschaften innerhalb einer Zelle (EndosymbiontenTheorie) und damit zur Bildung der Eucaryonten-
Zelle und schließlich zu multizellularen Systemen. Wichtige Belege für diesen Umschwung sind die BIFs (Banded Iron Formation) sowie die verstärkte Bildung von kieseligen und karbonatischen Mikrobialithen/Stromatolithen. 3. Als drittes Ereignis ist die an der Wende Präkambrium/Kambrium auftretende gesteuerte Biomineralisation zu nennen. Bedingt durch einen toxischen Supersaturationsindex für Ca im aquatischen Milieu kam es zur Entwicklung von spezifischen Ca 2+-bindenden Makromolekülen. Die Organismen waren gezwungen, Ca-Entgiftungsstrategien zu entwickeln, die den Ca-Stoffwechsel der Eucaryonten steuern konnten. Hierzu gehören zum Beispiel die Matrizen-Moleküle, die in der Lage sind, Biomineralisate zu initiieren und deren Wachstum zu kontrollieren. Erst durch diesen Prozess wird die Bildung komplexer organisch gesteuerter Systeme möglich, welche die Einnischung von Organismen und Organismengemeinschaften und die Differenzierung von Ökosystemen ermöglichten. 4. Die Eroberung des Festlandes durch Pflanzen im Silur und Devon charakterisiert das vierte Ereignis, das sich durch die Entwicklung von Lignin (Festigung) und Cutin beziehungsweise verwandten Stoffen (Reduktion des Wasserverlustes) auszeichnet. Mit der Entstehung terrestrischer Ökosysteme wird das System Erde in allen seinen oberflächennahen Prozessen grundlegend revolutioniert, mit
Abb. 31: Beispiel aus der Tabelle der pelagischen Biochronologie.
drastischen Konsequenzen für den Strahlungshaushalt, den Kohlenstoff-, Wasser- und Gesteinskreislauf.
Das neue Bild der erdgeschichtlichen Entwicklung der Stoffwechselprozesse wird in der Zukunft einen wesentlichen Einfluss auf die Vorstellungen über die in den oberen Bereichen der Lithosphäre ablaufenden geologischen, geochemischen und bio-geochemischen Prozesse haben. Bereits heute sind biogeochemisch und mikrobiell kontrollierte Prozesse bis in eine Tiefe von 5 km nachgewiesen. Die Untersuchung der „Tiefen Biosphäre“ (sowohl in Tiefbohrungen als auch in ozeanischen Tiefseegräben und Gebieten mit CH4- und H2S-Austritten am Meeresboden) stellt daher eine faszinierende Herausforderung sowohl für die Grundlagenforschung als auch für die anwendungsorientierte Forschung (zum Beispiel Bildung von Sulfiderzlagerstätten) dar.
Die Bedeutung des erdgeschichtlichen Zeitfaktors für das Verständnis der Gegenwart In Geo-Bio-Daten sind Angaben über Dauer, Schnelligkeit und Zeitpunkt heutiger und in der Erdgeschichte abgelaufener Prozesse gespeichert. Für die Beurteilung von kurz-, mittel- und langfristigen Veränderungen (Evolution, Lebensräume, Lebensbedingungen) ist eine möglichst genaue, hochauflösende Datierung und Unterteilung der Zeit notwendig (Abb. 31). Dies gilt auch für den Vergleich von Vorgängen, die sich innerhalb der „shallow time“ (< 200.000 Jahre) und in der „deep time“ der Erdgeschichte abgespielt haben. Die klassischen, auf der zeitlichen Abfolge von Fossilien basierenden Methoden der Biostratigraphie haben heute – insbesondere auf dem Gebiet der Mikropaläontologie – einen hohen Auflösungsgrad erreicht, der teilweise im Bereich von < 100.000 Jahren liegt (Abb. 31). Dies gilt insbesondere für Abschnitte des Paläozoikums (Conodonten) und für die im Rahmen des OceanDrilling-Program mikropaläontologisch untersuchten Zeitbereiche der Kreide und des Känozoikums. Für diese Zeitabschnitte liegen global einsetzbare Biochronologien vor, die für eine „gemeinsame Sprache“ für die Kalibrierung anderer stratigraphischer Methoden essenziell sind. Biostratigraphie und Biochronologie können jedoch nur so gut sein, wie die paläontologischen Basisdaten. Hier ist eine deutliche Stärkung taxonomisch-systematischer Grundlagenforschung notwendig. Die Auflösung der geologischen Zeit lässt sich durch die Verflechtung biostratigraphischer Methoden mit Sequenzstratigraphie und Magnetostratigraphie verfeinern und verbessern, wie die neuen Entwicklungen im Bereich der „resource
77
78
Abb. 32: Faunen, die sich in extremen Bioten entwickelt haben (hier Muscheln, sogenannte „Vent-Faunen“, die in der Nähe von hydrothermalen Quellen am Meeresboden vorkommen).
exploration stratigraphy“ deutlich zeigen. Aus geochemischen, mineralogischen und paläontologischen Proxies abgeleitete Zyklenstratigraphie (orbital tuning) gestattet bis zurück in das Miozän die Auflösung des 40.000- 42.000 Milankovitch-Jahresrhythmus. Die Auflösung des 100.000 Jahre-Rhythmus ist bis in das Eozän relativ gut möglich und abschnittsweise für das gesamte Phanerozoikum. Sklero- und Dendrochronologie erlauben zeitliche Auflösungen bis in den Jahres-, Jahreszeiten- und Monatsbereich und damit den Zugang zu extrem hochfrequenten Umweltvariationen. Relevanz von Paläo-Daten für das Verständnis von Gegenwart und Zukunft Die Relevanz von paläontologischen Daten für das Verständnis und Management des Systems Erde zeigt sich insbesondere in folgenden Themen-Kreisen: • Unterscheidung von natürlichen und anthropogenen Umweltänderungen; • Beurteilung von Stoffflüssen, Ozeanographie und Klimaentwicklung; • Einfluss mariner und terrestrischer Organismen auf Lagerstätten- und Sedimentbildung (Entstehung von Kohlenwasserstoff- und Kohlelagerstätten, Bildung biogener Sedimente); • Validierung von (Klima-, Biom-)Modellen.
Nachfolgend werden einige der oben genannten Punkte kurz diskutiert. Beurteilung von marinen Stoffflüssen, Ozeanographie und Klimaentwicklung Der Boden des Weltmeeres, seine Struktur, Zusammensetzung und Geschichte, sowie die ihn beeinflussenden Stoffflüsse spiegeln das Ergebnis der exogenen und endogenen Dynamik des Planeten Erde wider. Der Meeresboden, als die größte und am einheitlichsten aufgebaute geologische Provinz, enthält in seinen Ablagerungen das beste Archiv für eine Dokumentation von Ausmaß und Raten globaler Umweltänderungen. Durch die Auswertung dieser Archive liefert die marine Geowissenschaft einen essentiellen Beitrag zur Bewertung des Ist-Zustandes der Erde und zugleich zu einer vorausschauenden Umweltforschung. An der Wasser/Sediment-Grenzfläche werden gelöste Substanzen aus dem Sediment in das Bodenwasser zurückgeführt. Dieser Stofffluss bestimmt wesentlich die Konzentration und die Verteilung von Nährstoffen und Kohlenstoffspezies im Tiefenwasser des Weltozeans. Auch die Rückführung anthropogen eingebrachter Substanzen wird an dieser Grenzfläche kontrolliert. Biologische und geochemische Stoffflüsse können durch in situ-Methoden am Meeresboden gemessen und in prognosefähigen Transport-Reaktions-Modellen quantitativ beschrieben werden. Chemische Elemente werden im globalen Stoffkreislauf „Mantel-Ozeanboden-Meerwasser-Atmosphäre“ in einer Vielzahl verschiedener Reservoire zwischengespeichert. Der Stoffaustausch zwischen den Reservoiren wird hierbei gepuffert. Die Effektivität der Pufferung ist Rahmenbedingungen und Prozessen unterworfen, deren
Rückkopplungsmuster und deren Änderungen in der Zeit bisher nur ansatzweise bekannt sind. Die Erstellung von Bilanzen wird dadurch erschwert, dass Akkumulation und Freisetzung von relevanten Stoffen sehr unterschiedliche Zeiträume benötigen. Der geologische Ablauf von Stoffflüssen ist im Sediment überliefert und lässt sich aus fossil dokumentierten Näherungswerten für unterschiedliche Umweltparameter (Proxies) ableiten, die mit Hilfe von physikalischchemischen und biologisch-paläontologischen Messmethoden erfasst werden. Da diese Signale in der Regel die Wirkung mehrerer Umweltparameter beinhalten, ist eine schlüssige Interpretation der Signale meist nur durch eine hohe Zahl von unabhängigen Proxy-Datenserien möglich. Die Überprüfung und die Neuentwicklung von marinen und terrestrischen Proxies ist ein wesentliches Ziel zukünftiger Umwelt- und Paläoumweltforschung. Die Produktivität der Ozeane unterliegt klimatisch kontrollierten, natürlichen Variationen. Produktivität und deren Variationsmuster werden in der Gegenwart in vielen Meeresgebieten durch vermehrten Eintrag von C, N, P und Si anthropogen erhöht. Für die Abschätzung der Belastbarkeit des Systems Ozean und der möglichen Risiken ist die Abgrenzung der anthropogen bedingten Veränderungen von der natürlichen – und letztlich nur im geologischen Befund überlieferten – Variabilität von grundsätzlicher Bedeutung. Paläontologische Daten werden hierbei auch in der Zukunft eine wesentliche Rolle spielen, da sie die unmittelbare Antwort der Organismen auf Änderungen der natürlichen Umweltfaktoren widerspiegeln. Einfluss mariner Organismen auf Atmosphäre, Hydrosphäre und Kryosphäre Marine Organismen spielen im atmosphärisch-ozeanischen CO2-Haushalt eine essenzielle Rolle, da Änderungen der Produktivität in der Deckschicht der Ozeane den CO2-Gehalt der Atmosphäre in wenigen Jahrhunderten verändern können. Das Ausmaß dieser klimarelevanten Veränderungen wird im wesentlichen durch zwei Prozesse gesteuert – die „Biologische Pumpe“ und die „Alkalinitätspumpe“: oberflächennahe Produktivität führt über die Fixierung von Kohlenstoff und dessen Tiefentransfer zur CO2-Untersättigung der Oberflächenwässer und zieht damit eine Aufnahme von atmosphärischem CO2 nach sich. Dieser Prozess bedingt im Tiefenwasser einen zusätzlichen CO2-Anstieg durch Oxidation von organischem Kohlenstoff. Die Kompensierung führt über die Lösung von biogenem Karbonat zum Anstieg der Alkalinität im Ozean und gleichzeitig zu einer weiteren Reduzierung des atmosphärischen CO2-Gehaltes. Schwankungen in der Nährstoffzufuhr bestimmen hierbei insbesondere die Änderungen in der ozeanischen Produktivität. Hierbei steuert das Verhältnis von organischem Kohlenstoff und Karbonat-Transfer in die Tiefsee die Veränderungen der ozeanischen Alkalinität. Alle diese Prozesse werden zusätzlich durch Meeresspiegelschwankungen und Änderungen der ozeanischen Zirkulationsmuster beeinflusst. Zur Bewertung und Abschätzung natürlicher und anthro-
pogen verursachter CO2- und Klimaschwankungen sind in der marinen Biosphäre folgende Themenkreise von besonderem Interesse: (1) Schwankungen im Nährstoffpool: Zufuhrraten von produktivitätslimitierenden Nährstoffen (Phosphate, Nitrate, Silikate, Eisen et cetera), Änderungen in der ozeanischen Zirkulation; (2) Schwankungen in der Karbonatproduktion (Korallenriffe, karbonatschalige Mikroorganismen); (3) Meeresspiegelschwankungen, Erosion am Kontinentalschelf und die damit verbundenen Auswirkungen auf Riffentwicklung und Nährstoffangebot; (4) Quantifizierung des Kohlenstoff/Karbonat-Transfers in die Tiefsee. Reaktion von Ökosystemen auf Umweltänderungen Ökosysteme reagieren auf Umweltveränderungen in verschiedenen Skalen: • Schnelle Reaktion, verbunden mit physiologischen und modifikatorischen Reaktionen der Organismen, die sich auch fossil fassen lassen (zum Beispiel Veränderungen der Spaltöffnungsdichte bei Pflanzen als Folge der CO2-Erhöhung mit Konsequenzen für Wasserhaushalt und Biomasseproduktion). • Mittelschnelle Reaktion, gekennzeichnet durch Umstrukturierung von Ökosystemen, Wanderungen, Veränderungen von Stoffkreisläufen, Nahrungsketten et cetera, zum Teil Artensterben. • Langsame Reaktion, verbunden mit evolutiven Veränderungen, Artensterben und Regenerierung. Paläodaten ermöglichen die Untersuchung folgender Fragen: • Dynamik von Ökosystemen: moderne Ökosysteme sind keine statischen Gebilde, sondern in dynamische Entwicklungsprozesse einbezogen. Stabilität und Anfälligkeit unserer heutigen Ökosysteme kann durch zeitlich skalierbare Fallstudien aus der Erdgeschichte beurteilt werden. In zunehmendem Maße sind bereits Auflösungen bis in Zeitbereiche von Jahren und sogar Tagen möglich. Diese Fallstudien zeigen eindringlich, dass die Geschwindigkeit von Umweltänderungen vielfach von größerer Bedeutung als die Art der Änderung ist. • Besonders sensitive und damit als Monitore von Umweltänderungen nutzbare Ökosysteme: moderne Riffe formen natürliche Küstenschutzwälle, die Küsten in einer Ausdehnung von Zehntausenden von Kilometern vor Abtragung schützen. Lage und Struktur der Riffe sind, wie etwa in der Karibik oder im australischen Barriere-Riff, von der Position älterer Riffsysteme abhängig. Die modernen Riffe sind stark gefährdet, sowohl durch globale Umweltänderungen als auch durch die direkte Einwirkung des Menschen. Schätzungen über den Umfang der in ihrer Struktur bereits nachhaltig veränderten Riffe schwanken zwischen 40 und 60 %. Bedenkt man die Bedeutung von Riffen für die Fischereiindustrie und den Tourismus, so wird klar, dass dieses Riffsterben Auswirkungen auf die Ernährungs- und Arbeitsplatzsituation von Millio-
79
nen von Menschen haben muss. Außerdem werden mit den Rifforganismen bedeutende, für die Antibiotikaforschung grundsätzlich wichtige pharmazeutische Ressourcen, zerstört. Eine Abschätzung der Auswirkungen natürlicher Ursachen und der Wachstumsdynamik moderner Riffe erfordert die Kenntnis der in der Vergangenheit wirksam gewesenen Umweltfaktoren. Das Verständnis von El Nino-Auswirkungen und von zukünftigen Meeresspiegelschwankungen wird durch die in subfossilen und fossilen Riffen enthaltenen Aufzeichnungen über Schwankungen physikalisch-chemischer Rahmenbedingungen wesentlich unterstützt. • Notwendige Grundlagenuntersuchungen beinhalten folgende Fragenkreise: Wie drückt sich Anpassungsnotwendigkeit durch konstruktionsmorphologisch erklärbare Merkmale aus? Was ist für Organismen machbar beziehungsweise nicht machbar? Wie reagieren einzelne Arten und Arten-Assoziationen auf ökologische Extremsituationen? Welche Rolle spielen Mikroben beim Aufbau der „Flachen“ und „Tiefen“ Biosphäre und bei geobiologischen Prozessen? In welcher Weise hat sich die Bedeutung von Mikroben für die Bildung von sedimentären Lagerstätten und authigenen Mineralen im Laufe der Erdgeschichte geändert?
80 Entwicklungsbedarf und Perspektiven Eine erfolgreiche, international konkurrenzfähige Entwicklung der deutschen geobiologischen und paläobiologischen Forschung erfordert (1) den effizienten Aufbau von Paläo-Datenbanken, (2) die Entwicklung geobiologischer online Beobachtungssysteme, (3) die Entwicklung und Verbesserung physikalisch-chemischer Untersuchungsmethoden einschließlich des Einsatzes von Forschungsbohrungen und (4) den Aufbau einer durch Paläo-Daten gestützten, prognostisch orientierten Erdsystem-Modellierung, die relevante Biosphärenkomponenten (einschließlich des Menschen) integriert und heutige wie zukünftige Änderungen des Systems Erde in sinnvoller Weise abbildet. Management von Paläo-Datenbanken Der Wert der aus paläobiologischen Daten abgeleiteten Aussagen über die Entwicklung des Lebens und über die gekoppelten Beziehungen Erde – Leben hängt in hohem Maß von der Informationskraft der Fossilien ab. Diese wiederum wird durch taphonomische Kriterien negativ oder positiv kontrolliert. Aussagen über phylogenetische Zusammenhänge zwischen rezenten und fossilen Organismen, über den Lebensraum und die Kontrollen der Paläo-Umwelt sowie über den Wechsel von Ökosystemen in der Erdgeschichte müssen sich daher in der Zukunft in hohem Maß an Fossilfunden orientieren, die durch ungewöhnlich gute Erhaltung spezifische Informationen ermöglichen und ein „Fenster in die Erdgeschichte“ darstellen. Konservat-Fossillagerstätten von Burgess bis Messel bieten hier ausgezeichnete Beispiele.
Datenaufbereitung und Datenbanken Obwohl bisher nur ein geringer Prozentsatz der fossilen (und rezenten) Organismen beschrieben wurde, ist die deskriptiv orientierte Paläontologie in den letzten zwanzig Jahren zugunsten prozess- und musterorientierter Untersuchungen stark in den Hintergrund getreten. Gründe für dieses Zurücktreten sind a) Unsicherheiten in taxonomischen und systematischen Konzepten, b) Schwierigkeiten in der Überschaubarkeit der großen Zahl beschriebener Taxa, c) aufsehenerregende Erfolge der interpretativen Paläontologie in verschiedenen Gebieten der Paläobiologie und d) das mangelnde Verständnis für die Notwendigkeit taxonomisch-systematischer Forschung bei geowissenschaftlichen Kollegen. Die Evaluierung und Aufbereitung vorhandener taxonomischer Daten und neue, auf modernen biologischen Konzepten fußende taxonomisch-systematische Untersuchungen bilden jedoch eine wesentliche Voraussetzung für nahezu alle prozessorientierten Arbeiten. Dies gilt insbesondere a) für die Erfassung der Paläobiodiversität und den aus dieser abgeleiteten Beziehungen zwischen Evolution und physikalisch-chemischen Änderungen im System Erde, b) für die Erkennung paläobiogeographischer Muster, c) für die Beurteilung phylogenetischer Modelle, und d) für die Auswertung paläontologischer Daten im Rahmen einer hochauflösenden Biostratigraphie. Die Information über das paläontologische Datenmaterial ist in weit verstreuten Publikationen und in den Sammlungen großer Museen enthalten, die als Bezugssysteme unerlässliche primäre Datenbanken darstellen. Die Weiterentwicklung und Aktualisierung dieser erdgeschichtlichen Archive stellt ein zentrales Anliegen der paläontologischen Forschungsinstitute und Museen (wie zum Beispiel Senckenberg/Frankfurt) dar. Elektronische Medien (www, Netzwerke) können wesentlich dazu beitragen, publizierte Information zu bündeln und in Datenbanken allgemein zugänglich zu machen. Bereits bestehende Netzwerke (Ocean Drilling Stratigraphic Network, ODP-Datenbanken Bremen/Kiel, PANGAEA Bremen) müssen verstärkt und rasch ausgebaut werden. Die Datenbanken sollten nicht nur taxonomische Daten enthalten, sondern auch Angaben über morphologische Merkmale, ökologische und biogeographische Verteilungsmuster, sowie biostratigraphische Reichweiten. Taxonomische Daten müssen in einem „benutzerfreundlichen Format“ zugänglich gemacht werden, das eine rasche Auswertung der Daten gestattet. Hierzu gehört auch die Darstellung des Materials in Bildern. Paläontologische Datenbanken sollten mit Daten aus der Industrie vernetzt werden, um auf die, für die Lagerstättenexploration erforderlichen, biostratigraphischen Informationen zugreifen zu können. Grundsätzlich ist festzustellen: Der rasche Aufbau von modernen, miteinander vernetzten Paläo-Datenbanken ist für die geo- und biowissenschaftliche Auswertung der erdgeschichtlichen Archive in Richtung einer Paläo-Umweltund Klimaforschung von essenzieller Bedeutung. Dieser Aufbau erfordert gezielte Planungen hinsichtlich Methodik und Fragestellungen im internationalen und nationalen Rahmen.
Geobiologische Beobachtungssysteme Alle Ökosysteme unterliegen einem dynamischen Wandel, von dem jeweils nur wenige Einzelzustände erfasst werden. Die stichprobenartige, geowissenschaftliche Beprobungs- und Beobachtungsweise muss durch kontinuierliche, den gesamten Kreislauf der saisonalen Variabilität umfassende Verfahren ergänzt werden. Erste Schritte im terrestrischen Milieu sind erfolgreich, für das marine Milieu kommt man hier aber an technologische Grenzen, die es zu überwinden gilt. Dies wird besonders am Beispiel des gerade aufblühenden Forschungsfeldes der Erkundung biologischer Ressourcen am Kontinentrand deutlich. Kontinentränder vermitteln zwischen Tiefsee und Schelf und sind prozessual mit beiden ozeanischen Bereichen verknüpft. Diese Informationen sind in fossilisierbaren Hinterlassenschaften benthischer Ökosysteme am Kontinenthang gespeichert. Um diese Prozesskopplungen erfassen und verstehen zu können, sind kontinuierliche geobiologische Beobachtungssysteme erforderlich. In jüngster Zeit gilt hier das besondere Interesse den Tiefwasserkorallenriffen, die am europäischen Kontinentrand die Flanken karbonatreicher Mounds stabilisieren. Die Bedeutung dieser rezenten, lebenden Karbonatstrukturen wird dadurch unterstrichen, dass ein entsprechender „Rifftypus“ in der Erdgeschichte weit verbreitet ist und namhafte Kohlenwasserstoffspeicher gebildet hat. Diese Mud Mound-Strukturen lassen sich mit keinem Flachwasser-Riff heutiger Ausbildung vergleichen. In letzter Zeit sind weitere Tiefwasser-Mounds mit Korallenriffen außerhalb des europäischen Kontinentrandes, etwa vor Westafrika und Südost-Brasilien im Rahmen von Rohstoffkonsulting und Erkundungen nachgewiesen worden. Damit zeichnet sich bereits jetzt die globale geobiologische Signifikanz dieser bislang nur aus der Erdgeschichte bekannten Mud Mounds ab.
Verbesserte Untersuchungsmethoden Eine Verbesserung der Paläodaten-Basis ist durch den verstärkten Einsatz moderner Technologie möglich: molekulare Strukturanalyse, verbesserte geochemische Analytik zur Etablierung neuer Proxies, Röntgenmethoden, dreidimensionale numerische Untersuchung (3-DScanning und Bildverarbeitung), Spektroskopie, Computertomographie, gentechnische Untersuchungen, Untersuchung und numerische Behandlung von Innenstrukturen (Kernspin-Tomographie), Verstärkung aktuopaläontologischer Studien (Auswirkung von Umwelteinflüssen auf Hartteile), Weiterentwicklung von biometrischen Methoden und von biologisch untermauerten Modellierungsansätzen für die Geoökosystemforschung.
Erdsystem-Modellierung Modellierungen sind von grundsätzlicher Bedeutung, wenn der System-Erde-Ansatz auf die erdgeschichtliche Vergangenheit angewandt und prognostisch genutzt werden soll. Nachdem zunehmend die zentrale Rolle der
Biosphäre für die Dynamik des Planeten Erde erkannt wird, müssen modellierende Forschungsansätze auch alle relevanten geobiologischen und paläobiologischen Prozesse integrieren. Wesentlich ist dabei eine enge und iterative Kopplung zwischen Bereitstellung von ProxyDaten und Modellierung. Modellierungen ermöglichen: • die quantitative Umsetzung und Überprüfung von zunächst qualitativen Vorstellungen über Prozessabläufe und Prozesskopplungen, • den Zugang zu Parametern, die über Proxies allein nicht erschlossen werden können, • die Ableitung von Prognosen beziehungsweise Retrognosen im Hinblick auf die modellierten Prozesskopplungen. Demgegenüber liefern Proxy-Daten: • die Grunddaten für quantitative Modellierungen sowie • Möglichkeiten zur Validierung und Parametrisierung der Modelle. Dabei gilt grundsätzlich: solange Modelle nicht in der Lage sind, frühere erdgeschichtliche Zustände annähernd adäquat abzubilden, können sie nicht für Prognosen von zukünftigen, von der heutigen Situation abweichenden Zuständen genutzt werden. Somit liefern auf Geodaten basierende Modellierungen von Paläoumwelt-Szenarien den entscheidenden Test für die Realitätsnähe prozessorientierter Modelle. Modellierungen spielen insbesondere bei der Analyse von Stoffkreisläufen, des Klimas sowie der Ökosystemund Biom-Dynamik eine wichtige Rolle. Stoffkreislauf, Klima- und Ozean-Modelle haben einen hohen wissenschaftlichen Stand erreicht und werden zum Teil auch am Deutschen Klimarechenzentrum (DKRZ) in Hamburg operationell für Benutzergruppen zur Verfügung gestellt. Bestehende Klima- und Atmosphäre-Ozean-Zirkulationsmodelle bieten die große Chance, mögliche Paläo-Umwelt-Szenarien für ausgewählte Zeitscheiben zu simulieren und diese an der realen geologischen Überlieferung durch Paläodaten zu testen. Diese Vorgehensweise gestattet es, die Erde als Messinstrument zu betrachten und Geoprozesse in „Echtzeit“ zu erfassen. Ein Hauptproblem liegt darin, dass die Komponenten die die Biosphäre betreffen, in den Modellen noch unbefriedigend abgebildet werden. So ist zum Beispiel in allen großen Klimamodellen die für den Wasser- und Kohlenstoffkreislauf eminent wichtige Interaktion VegetationKlima noch nicht ausreichend berücksichtigt. Dies ist im wesentlichen dadurch bedingt, dass quantitativ fassbares Grundlagenwissen, das auch den geologischen Zeitfaktor berücksichtigt, noch fehlt. Diskrepanzen zwischen Paläodaten („hard data“) und General-Circulation-Modellierung (GCM) („soft data“) sind zum Beispiel für alle Greenhouse-Klimate vom Jura bis ins Neogen offensichtlich. Im Vergleich zu den Stoffkreislauf-, Klima- und Ozeanmodellen stehen Ökosystem- und Biom-Modellierungen noch am Anfang. Dies hängt damit zusammen, dass die umweltabhängigen Veränderungen von Ökosystemen und Biomen, soweit sie Langzeitprozesse betref-
81
fen, in der Gegenwart kaum erfasst werden können und in den Geowissenschaften bisher zu wenig Beachtung fanden. Grundsätzlich sind für die kommenden Jahre folgende Ziele anzustreben: • Eine intensive Anwendung bestehender Modelle auf Paläoumwelt-Szenarien – nicht zuletzt, um bestehende Modelle in ihrem prognostischen Wert zu testen. • Validierung der prognostischen Modelle durch in situ Langzeit-(online) Beobachtung. • Eine bessere Kenntnis der Biosphären-Dynamik, um neue Modelle für die Kopplung von Geo-, Atmo- und Biosphäre zu entwickeln. • Zukunftsträchtig erscheint die Modellierung von in der Natur verwirklichten Biokonstruktionen, um die Umsetzung effektiver biologischer Mechanismen in direkte technische Anwendungen (Bionik) zu erleichtern.
Forschungsaufgaben und Projekte
82
Nachfolgend wird zwischen „vorrangigen Forschungsthemen“ und „Projektvorschlägen“ unterschieden. Vorrangige Forschungsthemen sind Themen, die für das FuE-Programm GEOTECHNOLOGIEN von besonderer Bedeutung sind.
für markante Umweltänderungen und als Indikatoren für die Evolution der „Tiefen“ und „Flachen“ Biosphäre sein. Ferner muss der bakteriell gesteuerte Stoffkreislauf in die Massenbilanzen des Systems Erde Eingang finden. Es gilt herauszuarbeiten, welchen Anteil der bakteriell gesteuerte Stoffkreislauf an der Klimadynamik besitzt. Extrem-Biota und Extrem-Biotope Organismen, die an extrem kalte Lebensbedingungen angepasst sind (Polar-Biota), oder an heiße Vent-Systeme der Tiefsee angepasste Faunen, sowie die Bakterienfloren der oberen Lithosphäre (obere 1.000 bis 2.000 Meter und tiefer) zeigen, in welcher Weise die Evolution abgelaufen sein kann und welche Bandbreite die Biosphäre heute und in der Vergangenheit aufweist. Zudem sind Extrem-Biotope sehr sensitiv gegenüber Umweltveränderungen und von großem Interesse für die Suche nach „biologischen Ressourcen“. Aufgrund der aktuellen Gefährdung muss hier der Erforschung der polaren Geoökosysteme besondere Bedeutung beigemessen werden. Projekte Die nachfolgend skizzierten drei Projekte stellen eine Perspektive für die zukünftige Erforschung der Biosphären-Entwicklung dar. Es handelt sich um Projekte, die derzeit in paläontologischen und geologischen Arbeitsgruppen in Deutschland und im internationalen Rahmen intensiv diskutiert werden. Sie sollen innerhalb der nächsten zehn Jahre im Rahmen von nationalen und internationalen Forschungsvorhaben verwirklicht werden.
Vorrangige Forschungsthemen Molekularpaläontologie Innovativ und von besonderer Bedeutung ist der Einsatz molekularbiologischer und genetischer Methoden bei der Untersuchung von Fossilien (DNA-Analyse, Aminosäurensequenzen, immuno-histologische Methoden, Absorptionsspektroskopie). Aktuelle Beispiele sind die Untersuchung nicht-mariner Gastropoden, mariner und terrestrischer Eucaryonten, von Foraminiferen, Porifera, Mikroorganismen und Pflanzen. Diese Techniken eröffnen neue Möglichkeiten, die Verwandtschaftsbeziehungen zwischen Organismen und ihre Anpassung an eine sich in der Erdgeschichte ändernde Umwelt zu verstehen. Mikroben und mikrobielle Kontrolle der Lebensräume und der Sedimentbildung Bakterien haben wesentlich vielfältigere Wege der Stoffwechselabläufe entwickelt als Eucaryonta und Metazoa. Sie sind fähig, in normalen wie extremen Biotopen zu leben und haben vielfältige und über lange Zeiträume sehr erfolgreiche Symbiosen entwickelt. Sie hinterlassen durch ihre Stoffwechselvorgänge mineralische Präzipitate oder werden selbst als Biomarker (chemische Fossilien) überliefert. Das Potenzial, das Mikroben der Paläontologie und der Sedimentforschung bieten, wird zur Zeit noch völlig unterschätzt. Vorrangige Forschungsziele im Kontext des FuE-Programms GEOTECHNOLOGIEN sollten daher die Auswertung fossiler Mikroben beziehungsweise Chemofossilien als Proxies
Geobiologie der Ökosysteme des Systems Erde: Geophysiologische Prozesse der „Flachen“ und „Tiefen“ Biosphäre und deren Einfluss auf die Organismenentstehung, Diversifizierung und Regeneration Bei rezenten und fossilen Extrembiotopen handelt es sich um marine oder lakustrine Milieus, die in ihrer räumlichen Ausdehnung meist fleckenhaft entwickelt sind und mindestens einen, von den Normalbedingungen abweichenden steuernden Parameter aufweisen. Hierbei ist zwischen Extrembiotopen der Oberflächen-Biosphäre (Hypersaline Milieus – Messin Event, Zechstein et cetera; Soda-Seen – Soda Ozean; Polare Eis-Environments) und der tiefen Biosphäre zu unterscheiden. In diesen Lebensräumen wird die Interaktion von gekoppelten biologischen und geologischen Prozessen besonders deutlich. Von besonderem Interesse ist die „deep biosphere“, die unterhalb der Bodenzone beginnt und bis an die Grenze des vitalphysiologischen Fensters (VPF) geht. Die Tiefenlage des VPF ist abhängig vom geothermischen Gradienten. Nach dem derzeitigen Kenntnisstand sind aktive Organismen bis in eine Tiefe von 5-6 km und bis zu einer Temperaturobergrenze von etwa 113°C vorhanden. Die geplante Untersuchung der tiefen Biosphäre geht von zwei Thesen aus: These 1 Die „Tiefe“ Biosphäre repräsentiert einen frühen präkambrischen Zustand und ermöglicht somit Einblicke in die frühe Evolution. Die physiologische Aktivität der Mikroben hinterlässt Spuren und steuert Mineralneubil-
dungen, Fluide und Erzlagerstätten. In verschiedenen Tiefenstockwerken gibt es unterschiedliche mikrobielle Organismengemeinschaften, welche die Biosphäre in unterschiedlicher Weise kontrollieren (Daten aus Tiefbohrungen im Kristallin, zum Beispiel Deep Gas Project, Tunnel von Äspö, KTB). These 2 Die Tiefe Biosphäre kommt an bestimmten Stellen des Meeresbodens in Form von Ventilen (Hot Vents, Cold Seeps) an die Oberfläche. Für die Ansiedlung von Benthos sind diese Ventile eine zentrale Ursache. Sie liefern Nährstoffe, aktive organische Verbindungen, sowie Organismen et cetera. Die in Skandinavien durchgeführten- Tiefengas-Projekte basieren auf dieser These. Ventile finden sich: • in Tiefseegräben (Nährstoffzufuhr durch langsames Einsickern aus der TBSP), • in Cold Seeps (Kohlenwasserstoff-Quellen, die zur Bildung von Mud Mounds beitragen können; Gashydrate beziehungsweise Methanclathrate), • in H2S-Milieus und in kalten und hydrothermalen Zonen (Mud Mound-Bildung, „Erzriffe“) sowie • in Atollen (endothermal upwelling) und bei Geysiren. Paläobiologie (Stoffflüsse und Biodiversität) als Steuerungsfaktor des Systems Erde im Känozoikum. Die gegenwärtige Klimadebatte macht es notwendig, sich nicht nur intensiver den Prozessen und Massenbilanzen der Jetztzeit, sondern vermehrt auch denjenigen Abschnitten der Erdgeschichte zu widmen, die von unserer heutigen Situation deutlich abweichen. Dies sind nicht nur die letzten Vereisungsstadien und Zwischeneiszeiten, sondern vor allem frühere Warmzeiten wie das Eozän. Ziel des Projekts ist es festzustellen, welche Stoffumsätze und welche Stofftransportprozesse bestimmte Erscheinungsformen der Biosphäre bedingen und in welcher Weise die Biosphäre die Umwelt kontrolliert. Haben die großen Braunkohlenanhäufungen im Eozän den CO2Level herabgesetzt und somit die im Oligozän nachgewiesene Abkühlung verursacht? Im Vergleich mit der Gegenwart liegen in extremen Warmzeiten wie im Eozän sehr stark abweichende ozeanische Verhältnisse vor. Kann unter diesen Umständen die thermohaline Wasserzirkulation im Ozean noch funktionieren? Was bedeutet dies für das Plankton und speziell für das Phytoplankton? Ursachen und Muster natürlicher Ökosystem-Dynamik Nahezu alle Eingriffe des Menschen in seine Umwelt betreffen unmittelbar oder mittelbar die Biosphäre. Dies gilt für Veränderungen der Atmosphären-Zusammensetzung, des Klimas, der Gewässerchemie und der Landund Gewässernutzung (Verbauung, Waldrodung, terrestrische und marine Rohstoffnutzung, Überfischung, Landwirtschaft). Obgleich die anthropogene Gefährdung der Biosphäre grundsätzlich erkannt ist, besteht Unklarheit über die konkreten Konsequenzen der menschlichen Aktivitäten. Insbesondere bleibt unverstanden, wie Biomasse, Struktur, Vielfalt und Verbreitung der verschiedenen Ökosysteme auf Veränderungen
von Umweltparametern reagieren. Einige der in diesem Zusammenhang relevanten Fragen lassen sich am besten durch einen geowissenschaftlichen und geobiologischen Forschungsansatz klären, da sie Prozesse und Prozesskopplungen betreffen, die auf kurzen und langen Zeitskalen (deutlich mehr als 10 Jahre) ablaufen und letztere durch einen allein gegenwartsbezogenen Ansatz nicht erfasst werden können. In einem interdisziplinären Verbundprojekt sollen in terrestrischen und marinen Ökosystemen folgende Fragen untersucht werden: • Wie verhalten sich unterschiedliche Ökosysteme unter weitgehend stabilen Umweltbedingungen? Hierbei ist zu klären, ob tatsächlich „Klimax-Gesellschaften“ existieren, ob autozyklische Veränderungen eine Rolle spielen und welche Faktoren (Diversität, Klimazonierung) dafür wesentlich sind. • Wie und wie schnell reagieren verschiedene Ökosysteme auf Veränderungen der Umweltparameter? Die relevanten Reaktionsmuster von Ökosystemen betreffen dabei insbesondere die Biomasse, morphologisch-physiologische Modifikationen (bei WaldÖkosystemen zum Beispiel Veränderungen des leaf area index oder Stoma-Dichten als Proxy für die Water Use Efficiency), ferner Wanderungsbewegungen von Organismen, sowie genetische und evolutive Veränderungen. Als maßgeblicher Umweltparameter darf nicht nur das Klima angesehen werden, sondern auch Nährstoffe und Sauerstoff- beziehungsweise Kohlendioxid-Konzentrationen. • Welches sind die gegenüber Umwelt- und Klimaveränderungen besonders sensitiven Ökosysteme und welche Ursachen liegen dieser Sensitivität zugrunde? Hier müssen tropische mit polaren Ökosystemen, Wälder mit Savannen, Steppen und Grasländer, Watt- mit Schelfbereichen, Riffe mit offen marinen Bereichen und Kontinentalränder mit Tiefseearealen verglichen werden. Diese Fragen sollen in verschiedenen Zeitscheiben des Phanerozoikums, bevorzugt im Meso- und Känozoikum, untersucht werden. Oberstes Ziel ist ein besseres Verständnis der Kopplung der Biosphäre mit den anderen Komponenten des Systems Erde als Grundlage für die Entwicklung nachhaltiger UmweltmanagementKonzepte.
83
84
Erkundung, Nutzung und Schutz des unterirdischen Raumes
A
lle geotechnischen Maßnahmen auf, über und unter der Erde sind mit Großeinsätzen von Personal, Maschinen und Kapital verbunden und haben bedeutende Auswirkungen auf Umwelt, Wirtschaft und Politik. Die vorausschauende Einschätzung von Umwelt-Auswirkungen neuer technischer Erfindungen und Entwicklungen ist deshalb notwendig, um Vorsorge vor späteren Umweltschäden oder kostenträchtigen Fehlinvestitionen zu treffen. Die zunehmende Nutzung des Untergrundes als Lieferant für Bodenschätze, Wasser und Energie sowie als möglicher Speicher für rückholbare oder auch nicht-rückholbare Güter erfordert ein einheitliches Schutzkonzept.
Für die Erkundung, die Nutzung und den Schutz des unterirdischen Raumes werden geowissenschaftliche und geotechnische Methoden in allen Zeitskalen benötigt: Minuten, Stunden, Tage und Monate während der Bauphase, Jahre bis Jahrzehnte in der Betriebsphase und gegebenenfalls Jahrhunderte bis Jahrtausende, zum Beispiel für die Sicherheit von Deponien toxischer Abfallstoffe in der Nachbetriebsphase. Die Entwicklung von bau- und betriebsbegleitenden Messtechniken und Auswerteverfahren für Qualitätssicherung und langzeitige Qualitätskontrolle der unterirdischen Anlagen in Boden und Fels sind eine geowissenschaftliche Aufgabe hoher Priorität, die nur gemeinsam mit den Ingenieurwissenschaften interdisziplinär definiert und bearbeitet werden kann. Eine Nichtbeachtung der kausalen Zusammenhänge zwischen den geologischen Gegebenheiten und den bautechnischen Maßnahmen verstieße gegen die anerkannten Regeln der Geotechnik und könnte gravierende wirtschaftliche Schäden nach sich ziehen. So ist zum Beispiel bei der Herstellung von Tunneln in den meisten Fällen die Bauphase besonders kritisch und muß durch entsprechende Messprogramme sorgfältig begleitet werden, während bei Bohrungen zur Förderung von Erdöl und Erdgas die Stabilität des Gebirges für die Dauer der Produktionsphase gesichert werden muss. Bei untertägigen Speicher-, Deponie- und Kraftwerkskavernen schließlich hat die langzeitige Dichtigkeit und damit die Sicherheit für die Umwelt in der Betriebs- und Nachbetriebsphase fundamentale Bedeutung.
85
Themenschwerpunkt: „Erkundung, Nutzung und Schutz des unterirdischen Raumes“. Förderstatus BMBF: Zur Zeit keine Förderung des BMBF. Förderstatus DFG: Zur Zeit keine Förderung durch die DFG.
In die Tiefe gehen – Der Untergrund als Verkehrs- und Wirtschaftsraum
J
ede Sekunde wird in Deutschland eine Fläche von 15 m2 für neue Siedlungsprojekte und Verkehrsmaßnahmen beansprucht. Mehr als 10 % der Gesamtfläche Deutschlands sind bereits als „bebaute Flächen“ ausgewiesen. Dies entspricht zusammengenommen in etwa einem Gebiet von der Größe der Bundesländer Thüringen, Schleswig-Holstein, Saarland, Berlin, Hamburg und Bremen. Die zunehmende Nutzung freier Flä-
und eine erhöhte Lärmbelastung. In der Nachhaltigkeitsstrategie für Deutschland wird daher der Erhaltung von Freiflächen eine hohe Priorität zugemessen. Stadtentwickler und Verkehrsplaner werden in Zukunft somit vermehrt den Untergrund nutzen. Nur so lässt sich über der Erde kostbarer Platz für Mensch und Natur erhalten. Die Deutsche Bahn AG will beispielsweise bis zur Mitte des 21. Jahrhunderts eine Reihe von Großstadtbahnhöfen mit ihren weitverzweigten Gleisanlagen unter die Erde verlegen. Bauprojekte im tieferen Untergrund sind bisher jedoch mit erheblichen technischen und finanziellen Risiken verbunden. Insbesondere unzureichende Kenntnisse über die Beschaffenheit des Baugrundes verursachen immer wieder enorme Mehrkosten. Um unkalkulierbare Kostensteigerungen zu vermeiden, sind verbesserte Methoden zur Baugrunderkundung notwendig. Durch die Entwicklung neuer Technologien auf diesem Gebiet könnten Kosten und Risiken zukünftiger Baumaßnahmen vermindert und die internationale Wettbewerbsfähigkeit deutscher Unternehmen in diesen Bereichen nachhaltig gestärkt werden. Auch als Speicherraum und umweltfreundliche Energieressource gewinnt der Untergrund weiter an Bedeutung. Aus Norddeutschland liegen umfangreiche Erfahrungen im Bau unterirdischer Kavernen zur Bevorratung
86
Abb. 33: Gleisanlagen werden zu attraktiven Erholungsflächen (Computersimulation für den Frankfurter Hauptbahnhof).
chen und die Zerschneidung der Landschaft erfolgt jedoch in immer höherem Maße auf Kosten der Natur und der Lebensbedingungen von Tieren und Pflanzen. Für den Menschen bedeutet der zunehmende Landschaftsverbrauch die Verringerung kostbarer Erholungsräume
von Erdgas vor. Solche Speicher, einige groß genug um den Eiffelturm aufzunehmen, gleichen die starken jahreszeitlichen Schwankungen im Energieverbrauch aus und dienen als nationale Energiereserve. Versuche in Norwegen zeigen sogar, dass eine langfristige Einlagerung des Treibhausgases Kohlendioxid (CO2 ) im tieferen Untergrund technisch realisierbar ist. Seit 1996 werden hier jährlich 1 Million t CO2 in den Untergrund der Nordsee verpresst. Das Abtrennen von Kohlendioxid aus Industrieabgasen und dessen Deponierung im Untergrund
Abb. 34: Die unterirdische Speicherung von CO2 könnte ein entscheidender Beitrag zur Reduktion von Treibhausgasemissionen sein. wird inzwischen weltweit als ein entscheidender Beitrag zur Reduktion der klimaschädlichen Treibhausgase angesehen. Noch liegen die Kosten jedoch jenseits einer ökonomisch sinnvollen Anwendung. Wissenschaft und Industrie haben daher damit begonnen, neue Technologien zu entwickeln, um dieses Verfahren im Sinne unserer Umwelt wirtschaftlich zu machen. Auch in Deutschland existiert an diesem hochinnovativen Forschungsfeld ein vitales Interesse von Industrie, Wissenschaft und Gesellschaft. Gleiches gilt für die intelligente Nutzung regenerativer Energien aus dem Untergrund als Beitrag zur CO2Reduzierung. Sowohl im nationalen wie auch im eu-
ropäischen Verbund werden prototypische Projekte mit dem Ziel gefördert, Prozesswärme und/oder elektrischen Strom mittels Erdwärme zu erzeugen. Die volkswirtschaftliche, gesellschaftliche und umweltpolitische Bedeutung des unterirdischen Raumes ist somit erheblich. Eine sichere und ökonomisch vertretbare Nutzung erfordert jedoch einen fachübergreifenden wissenschaftlichen Ansatz. Nur so lassen sich bestehende Risiken und überschneidende Nutzerinteressen verantwortungsvoll definieren und Lösungskonzepte erarbeiten. Das FuE-Programm GEOTECHNOLOGIEN bietet aufgrund seiner interdisziplinären und ressortübergreifenden Ausrichtung den Rahmen, diesen speziellen Anforderungen gerecht zu werden. In dem Themenschwerpunkt „Erkundung, Nutzung und Schutz des unterirdischen Raumes“ sollen sich die Forschungsanstrengungen zunächst auf folgende Kernthemen konzentrieren: • Entwicklung neuer Erkundungs- und Überwachungstechnologien für den Untergrund • Unterirdische Speicherung von Treibhausgasen
Entwicklung neuer Erkundungs- und Überwachungstechnologien für den Untergrund
Abb. 35: Noch Zukunftsvision: Unterirdische Logstiksysteme für eine schnelle und zuverlässige Verteilung von Gütern in Ballungsgebieten.
Das Bauen im Untergrund ist auch heute noch mit erheblichen finanziellen und technischen Risiken verbunden. Jüngste Beispiele sind die ICE-Neubaustrecken Köln-Rhein/Main und München-Ingolstadt-Nürnberg, die um rund 1 Milliarde Euro teurer werden als ursprünglich geplant. Andere Baumaßnahmen zeigen ähnliche Trends wie zum Beispiel die Großbaustellen und Tunnelprojekte in Berlin. Das Baugrundrisiko liegt im allgemeinen beim Bauherrn, und das ist in vielen Fällen die Öffentliche Hand. Neue Technologien für eine sichere und zuverlässige Erkundung des Baugrundes könnten Risiken minimieren, die Baukosten senken und der Bauwirtschaft im Interesse qualifizierter Arbeitsplätze neue Impulse geben.
87
Abb. 36: Eine mangelhafte Baugrunderkundung oder fehlende Sicherheitsmaßnahmen können fatale Folgen haben. Beim U-Bahn-Bau in München tat sich 1994 überraschend die Erde auf und riss mehrere Menschen in den Tod.
88 Die Innovationsbereitschaft und -fähigkeit der deutschen Bauindustrie ist im internationalen Vergleich deutlich unterentwickelt. Nur 0,1 bis 0,4 % des Umsatzes werden für Forschung und Entwicklung aufgewandt. Im Vergleich: Die japanische Bauindustrie wendet mehr als 1 % ihres Umsatzes für Forschung und Entwicklung (FuE) auf. Trotzdem besitzt die deutsche Bauindustrie in technisch und planerisch anspruchsvollen Bereichen eine weltweit führende Position. Bestes Beispiel ist der Spe-
Abb. 37: Noch ist die deutsche Bohrtechnik weltweit führend.
zialtunnelbau. Um diese Spitzenstellung zu erhalten ist es erforderlich, Forschung und Entwicklung zu intensivieren und bestehende FuE-Tätigkeiten zu bündeln. Die Chance Deutschlands besteht hier im Anbieten hochwertiger Technologien für Projekte, die überwiegend im Ausland liegen und die ohne moderne Technik nicht realisierbar sind. Nur so können deutsche Unternehmen auf dem heute engen Baumarkt gegen die Konkurrenz aus Übersee aber auch dem europäischen Ausland wettbewerbsfähig bleiben und Arbeitsplätze sichern. Die Bauverfahren und die Kosten für große Bauwerke im Untergrund werden wesentlich von der geologischen Situation vor Ort bestimmt. Die Bandbreite der Untergrundformationen reicht von Torf und Schlick bis zu massivem Fels. Entsprechend vielfältig sind die bautechnischen Eigenschaften und geotechnologischen Maßnahmen. Die Erkundung des Untergrundes ist deshalb ein wichtiger Faktor bei der exakten Planung und Durchführung von Bauvorhaben. Nur mit verbesserten Methoden lassen sich die Untergrundeigenschaften genauer erkennen, die Bauverfahren treffender bestimmen und damit Kostenerhöhungen einschränken. Im Rahmen von Verbundvorhaben zwischen Unternehmen der Bauwirtschaft und wissenschaftlichen Einrichtungen sollen daher FuE-Projekte zu folgenden Themenschwerpunkten in Angriff genommen werden: • Neu- und Weiterentwicklung von Vorauserkundungssystemen, die in den laufenden Baubetrieb integriert werden Die Verfahren müssen robust, zuverlässig und hochauflösend sein. Die Ergebnisse müssen vor Ort online ausgewertet, visualisiert und interpretiert werden. Besonders erfolgversprechend sind hier seismische Verfahren, die eine genügend große Eindringtiefe und die erforderliche Auflösung bieten. Auf Tunnelbohrmaschinen
Abb. 38: Bohrmaschine mit Weitblick: Künstlich erzeugte seismische Wellen tasten den Untergund auf unerwartete Hindernisse ab.
während des Vortriebs eingesetzt, können mit ihrer Hilfe kritische Veränderungen des Gesteins rechtzeitig erkannt oder gefährliche Kollisionen vermieden werden. • Entwicklung neuer Sicherheitskonzepte und Sicherheitstechnologien. Dies betrifft im Verkehrstunnelbau insbesondere den Brandschutz, aber auch automatische Systeme zur Störfalldetektion. Darüber hinaus ist die Weiterentwicklung von Verschiebungs-, Dehnungs-, Druck- und Temperatursensoren notwendig, die eine automatisierte Überwachung vor und nach der Bauphase, sowie im laufenden Betrieb ermöglichen.
Unterirdische Speicherung von Treibhausgasen Eine der ganz großen Herausforderungen der Zukunft ist die im Protokoll von Kyoto vereinbarte Reduktion der klimaschädlichen Treibhausgase. Deutschland ist hiernach bis spätestens 2012 zu einer Verminderung seiner Treibhausgasemissionen um 21 % unter das Niveau von 1990 verpflichtet. Bis 2005 sind hierzu nachweisbare Fortschritte vorzulegen. Bei den CO2-Emissionen hat sich Deutschland sogar zu einer Reduktion um 25 % bis zum Jahr 2005 bekannt und dies als ein nationales Klimaschutzziel festgelegt. Da Kohle, Erdöl und Erdgas auch auf absehbare Zeit unverzichtbarer Bestandteil unserer Energieversorgung bleiben, werden derzeit weltweit alle Möglichkeiten zur Reduktion anthropogener Klimagas-Emissionen ausgelotet. Eine Schlüsseltechnologie ist für viele Wissenschaftler das Abtrennen von Kohlendioxid aus Industrieabgasen und seine langfristige Lagerung im Untergrund.
• Bessere Verfahren zur Stabilisierung des Baugrundes und zur Abdichtung der unterirdischen Hohlraumbauten gegen eindringendes Grundwasser. Gerade im innerstädtischen Bereich, wo Setzungen oder gar der Einsturz der Oberfläche zu großen Schäden führen können, sind stabile Baugrundverhältnisse von großer Bedeutung. Im Tunnelbau besteht dringender Bedarf an neuen Mess- und Injektionstechniken zur Bewältigung des Wassers in den verschiedenen Untergrundverhältnissen und geologischen Störungszonen.
Abb. 39: Tunnelsicherheit – ein hochaktuelles Thema.
89
In Deutschland ließe sich mit einer effizienteren Energieausnutzung, der Förderung regenerativer Energien und der Entwicklung emissionsarmer Motortechniken bis 2005 eine CO2-Minderung von 18-20 % erreichen. Das entspricht einer Menge von etwa 180-200 Millionen Tonnen CO2 (Quelle: Umweltbundesamt, 2000). Das Abtrennen von Kohlendioxid aus Industriegasen und seine unterirdische Deponierung könnte somit andere Technologien zur Schließung der noch verbleibeden Deckungslücke sinnvoll ergänzen. In Deutschland existieren nach ersten Untersuchungen der Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) Speichermöglichkeiten für CO2 in ausgeförderten Gasfeldern, in tiefen Aquiferen und in derzeit nicht abbaubaren tiefliegenden Kohleflözen. Eine nationale Initiative, die bestehende Forschungsund Entwicklungsarbeiten bündelt und neue Vorhaben initiiert, steht jedoch noch aus. Das FuE-Programm GEOTECHNOLOGIEN bietet mit dem Themenschwerpunkt „Erkundung, Nutzung und Schutz des unterirdischen Raumes“ hierzu eine ausgezeichnete Plattform. Insbesondere sollen Wirtschaftsunternehmen unterstützt werden, die Forschung und Entwicklung für notwendige technologische Innovationen in Zusammenarbeit mit wissenschaftlichen Einrichtungen in Angriff zu nehmen. Notwendige Forschungsthemen sind:
90
• Ermittlung von Speicherkapazitäten geeigneter Gesteinsformationen unter Berücksichtigung der Betriebs- und Langzeitsicherheit.
Abb. 40: CO2-Emissionsquellen in Deutschland – große Mengen des schädlichen Treibhausgases könnten vor Ort abgetrennt und deponiert werden.
• Entwicklung numerischer Modelle zur Prognose der Ausbreitung von CO2 im Untergrund und zur Abschätzung möglicher Gefährdungen von Grund- und Meerwasser. • Wie wirken sich Bohrungen auf die Durchlässigkeit abdeckender Gesteinsschichten aus? • Reaktionskinetik zwischen Speichergestein und injiziertem Kohlendioxid. • Neu- und Weiterentwicklung von Technologien, mit denen eine verlässliche Überwachung der Ausbreitung des Gases im Untergrund möglich wird. Hier bieten sich insbesondere geophysikalische und geochemische Verfahren an, die in Kontrollbohrungen und an der Oberfläche eingesetzt werden. • Ermittlung der petrologischen und mechanischen Eigenschaften von Speichergesteinen und Deckschichten unter originären Druck- und Temperaturbedingungen. • Feldexperimente und Injektionstests, um die in Laborexperimenten und thermodynamischen Modellrechnungen ermittelten Ergebnisse zu überprüfen (Demonstrationsvorhaben). Mit den hier vorgeschlagenen Forschungsthemen könnten nicht nur neue Impulse zur Stärkung der Wettbewerbsfähigkeit und zum Erhalt von Arbeitsplätzen gegeben werden. Die FuE-Arbeiten könnten auch einen wichtigen Beitrag für eine nachhaltige Entwicklung liefern.
91 Abb. 41: Neue Technologien machen es möglich: Gefährliche Treibhausgase könnten im Untergrund deponiert werden.
92
Mineraloberflächen: Von atomaren Prozessen zur Geotechnik
D
ie erdoberflächennahen Regionen der Erde beinhalten mehrere Hundertmillionen Quadratkilometer Mineraloberflächen, auf denen unter anderem eine Vielzahl chemischer Reaktionen stattfinden. Umweltrelevante Prozesse werden direkt von den physikalisch-chemischen Eigenschaften dieser Oberflächen gesteuert. So wird zum Beispiel die Mobilität von Schwermetallen im Grundwasser durch den Einbau und damit die Fixierung von Spurenelementen bei der Kristallisation von Mineralen aus wässrigen Lösungen kontrolliert. Bei der Untersuchung dieser Prozesse müssen sowohl gleichgewichtsthermodynamische, als auch kinetische Aspekte berücksichtigt werden. Darüber hinaus werden bei vielen geotechnischen Anwendungen oberflächenspezifische Reaktionen eingesetzt, um bei Kristallisationsprozessen durch Zugabe geeigneter Additive die Kristallmorphologie zu kontrollieren, die Keimbildung zu unterbinden und damit die Kristallisationskinetik zu hemmen (zum Beispiel bei der Hydratation von Bohrlochzementen oder der Bildung schwerlöslicher Niederschläge bei der Erdölförderung). Die Wechselwirkung von Mineralen mit ihrer Umgebung findet an deren Grenzfläche statt, das heißt sie ist auf wenige Atomlagen lokalisiert. Dabei ist zu beachten, dass die atomare Struktur , sowie die physikalischen und elektronischen Eigenschaften der Oberfläche sehr verschieden von denen des Inneren der Minerale sein können. Zusätzlich können strukturelle Defekte sowie die Mikrotopographie (atomare Stufen) in einer inhomogenen Verteilung der Oberflächenreaktivität resultieren. Daher wird das Verständnis der fundamentalen Prozesse auf Mineraloberflächen im atomaren Maßstab ein Verständnis globaler Wechselwirkungen innerhalb geochemischer Stoffkreisläufe ermöglichen. Dies wird zuverlässige Vorhersagen eines dynamischen Systems wie dem der Erde auf der Basis von numerischen Modellen ermöglichen. Darüber hinaus kann bei Kenntnis der reaktionsbestimmenden Wechselwirkungsparameter zwischen Mineral und Umgebung die Forschung und Entwicklung geotechnisch verwendeter organischer und anorganischer Additive unter den Gesichtspunkten der Prozessoptimierung und Umweltverträglichkeit verbessert werden. Nur durch die direkte Beobachtung der Reaktionsmechanismen im atomaren Maßstab und deren Modellierung können viele globale Prozesse im Hinblick auf ein Erdmanagement verstanden und vorausgesagt werden.
93
Themenschwerpunkt: „Mineraloberflächen: Von atomaren Prozessen zur Geotechnik“. Förderstatus BMBF: Zur Zeit keine Förderung des BMBF. Förderstatus DFG: Zur Zeit keine Förderung durch die DFG.
Die Reaktivität von Mineraloberflächen
Z
94
Komplexbildner, um gezielt Nährstoffe aus Mineraloberflächen in Böden herauszulösen. Vergleichbare Mechanismen nutzt man bei der Beseitigung schwerlöslicher Niederschläge (Kesselstein) bei industriellen Anwendungen, bei der synthetische Komplexbildner zum Einsatz kommen. Darüber hinaus werden organische Additive bei vielen industriellen Kristallisationsprozessen eingesetzt, um die Kinetik und Mechanismen des Kristallwachstums zu kontrollieren (zum Beispiel Erstarrungsverzögerer bei Zementen, Mikrostruktur von Gipsbaustoffen, Abb. 42). • Die Auflösung von Sulfidmineralen in Erz- und Braunkohlelagerstätten und die damit verbundene Freisetzung saurer Abflüsse (acid mine drainage) stellt ein erhebliches Umweltrisiko dar. Der Auflösungsmechanismus wird dabei von Redoxreaktionen begleitet. Die lokale elektronische Zustandsdichte an den halbleitenden Sulfidmineraloberflächen ist jedoch nur unzureichend bekannt. Eine zuverlässige Vorhersage der zu erwartenden Umweltreaktionen in
ahlreiche Prozesse in der Natur, aber auch bei technischen Anwendungen, werden durch Reaktionen an der Grenzfläche zwischen einem Mineral und dessen lokaler Umgebung kontrolliert. Letztlich bestimmen Grenzflächenreaktionen an Mineraloberflächen die Lebensbedingungen in unserer Umwelt. Kristallisations- und Auflösungsprozesse im wässrigen Milieu bei relativ niedrigen Temperaturen spielen dabei eine entscheidende Rolle. • Die geochemische Verteilung vieler Elemente und Verbindungen wird durch Kristallisations- und Auflösungsprozesse gesteuert. So kontrolliert zum Beispiel die Ausfällung von CaCO3 (Calcit) in den Ozeanen den globalen CO2-Haushalt und damit die langfristige Entwicklung der Atmosphäre. Die Kristallisation schwerlöslicher Präzipitate (Kesselstein, zum Beispiel BaSO4, Baryt) stellt ein großes technisches Problem bei der sekundären Offshore-Erdölförderung dar, welches mit enormen Produktionsverlusten verknüpft ist. Die Mobilisierung und der Transport von Spurenelementen im Grundwasser wird durch Anlagerungsprozesse an Mineraloberflächen kontrolliert. Dabei ist häufig nicht bekannt, durch welchen Mechanismus bestimmte Spurenelemente gebunden werden (Adsorption, Ionenaustausch, Ausfällung). So ist zum Beispiel die Bindung von Cadmium an Calcit über die Bildung eines idealen (Ca,Cd)CO3 Mischkristalls grundsätzlich von der Bindung von Nickel an Quarz durch Adsorption zu unterscheiden. Ein quantitatives Verständnis des reaktiven Transports in porösen Medien ist für die Modellierung von Fluid/GesteinWechselwirkungen besonders wichtig. • Die Wechselwirkung organischer Moleküle mit Mineraloberflächen kontrolliert viele bio- Abb. 42 a,b: Mikrostruktur von Gipsbaustoffen: (a) Gips aus Begeochemische Prozesse. Pflanzen synthetisie- taHalbhydrat ohne Zusatzmittel, (b) mit 0,1 Mol-% Citronsäure ren in ihrem Wurzelbereich hochspezifische als Verzögerer (Bildbreite jeweils 45 Mikron).
Abb. 43: Baryt (001) Oberfläche in übersättigter Lösung. Man erkennt molekulare Stufen mit einer Höhe von 0,35 nm, was einer BaSO4 Schicht in der Barytstruktur entspricht. Das Wachstum einer Spirale sowie die Bildung 2-dimensionaler Keime kann in situ beobachtet werden.
der näheren Umgebung derartiger Lagerstätten ist dringend erforderlich. Heterogene Reaktionen an der Fluid/MineralGrenzfläche sind im allgemeinen sehr komplex. Meist können die Beiträge einzelner Mechanismen aus einfachen makroskopischen Laborexperimenten oder Untersuchungen an natürlichen Systemen nicht entschlüsselt werden, da mehrere Mechanismen simultan ablaufen. Da verschiedene Reaktionstypen räumlich getrennt ablaufen, das heißt im mikroskopischen Maßstab an unterschiedlichen Reaktionsplätzen an der Oberfläche, müssen die individuellen Reaktionsmechanismen auf atomarem Maßstab untersucht werden, um die Komplexität der Gesamtreaktion zu verstehen.
Ansätze zur Erforschung heterogener Prozesse an Mineraloberflächen Da die sehr spezifischen Eigenschaften von Mineraloberflächen die vielfältigen Prozesse an Grenzflächen beeinflussen, wie zum Beispiel Verwitterung, Kristallwachstum und -auflösung, Adsorption und Fällung sowie katalytische und Redoxreaktionen, ist es von entscheidender Bedeutung, Mineraloberflächen mit spezifi-
schen Methoden zu charakterisieren. Es müssen also gezielt die Mikrotopographie, die chemische Zusammensetzung, sowie die atomare und elektronische Struktur weniger oberflächennaher Atomlagen untersucht werden. So können zum Beispiel Kristallisation und Auflösungsreaktionen von Mineralen in wässrigen Lösungen in ein umfangreiches Netzwerk theoretischer Betrachtungen eingebunden werden, die auf dem Kossel-Modell für Kristalloberflächen beruhen (circa 1920), oder auf dem BCF-Modell für Spiralwachstum (circa 1950) und dem birth & spread Modell für heterogene Keimbildung (circa 1950, vgl. Abb. 43) basieren. Häufig sind die individuellen mikroskopischen Mechanismen sowie deren Beitrag zur Gesamtreaktionsrate nur indirekt zugänglich und werden aus makroskopischen Experimenten abgeleitet. Obwohl makroskopische Experimente wichtige Informationen zur Gleichgewichtsthermodynamik und Reaktionskinetik liefern, haben indirekte Rückschlüsse, zum Beispiel von Reaktionskinetiken auf individuelle Reaktionsmechanismen, häufig zu zweifelhaften oder gar falschen Ergebnissen geführt. Erst die Untersuchung der individuellen Mechanismen im atomaren und molekularen Maßstab ermöglicht die Charakterisierung der Oberflächenreaktivität und letztlich eine zuverlässige quantitative Modellierung heterogener Reaktionen. In den Geowissenschaften wurden bereits zahlreiche Projekte und Themen im Zusammenhang mit der Reaktivität von Mineraloberflächen bearbeitet, obwohl dies nur selten explizit zum Ausdruck kommt. Dabei wurden verschiedene Messtechniken eingesetzt, von denen hier lediglich zwei beispielhaft genannt sein sollen: • Die Transmissionselektronenmikroskopie (TEM) und weitere in den Geowissenschaften bereits etablierte Methoden (zum Beispiel Kathodoluminiszenz) haben bereits zahlreiche neue Erkenntnisse über die Wechselwirkung von Mineralen mit ihrer Umgebung geliefert. Die Untersuchung von Wachstumszonarbau von Mineralen mittels hochauflösender TEM ermöglicht die Untersuchung der kinetischen Bedingungen während des Kristallwachstums und damit des Einbaus verschiedener Spurenelemente an der Mineral/ Fluid-Grenzfläche. Ferner hat sich in jüngster Vergangenheit gezeigt, dass Verwitterungsprozesse über interne Grenzflächen verlaufen. Moderne TEM-Untersuchungen haben diese bisher wenig beachteten Reaktionen aufgezeigt und so darauf hingewiesen, dass der Begriff der reaktiven Oberfläche, der erheblich von der geometrischen Oberfläche abweichen kann, neu überdacht werden muss. • Makroskopische Experimente in einem einfachen Reaktor (zum Beispiel Mixed Flow Reactor) zur Simu-
95
96
lation geochemischer Prozesse (Adsorption, Kristallisation, Auflösung) sind für das Verständnis natürlicher Prozesse unumgänglich, da die Komplexität derartiger Prozesse an natürlichen Proben nicht kontrolliert werden kann. Sie können als Bindeglied zwischen mikroskopischen Untersuchungen und Beobachtungen an natürlichen Systemen angesehen werden. Dabei ist der Einsatz moderner instrumenteller Analytik unumgänglich (zum Beispiel ICP -MS, HPLC). Allerdings sind die Interpretationsmöglichkeiten dieser Ergebnisse im Hinblick auf die Reaktionsmechanismen zum Teil eingeschränkt, obwohl sie wertvolle Informationen liefern. Lediglich oberflächensensitive Messmethoden können die benötigten Daten heterogener Reaktionen liefern. Die Untersuchung von Festkörperoberflächen wird in der Physik/Chemie bereits seit mehr als 15 Jahren erfolgreich durchgeführt. Sie wurde durch wichtige technologische Fortschritte erst ermöglicht. Zahlreiche oberflächensensitive Messmethoden wurden dabei insbesondere in jüngerer Vergangenheit entwickelt. Diese Messtechniken werden neuerdings auch an geowissenschaftlich relevanten Proben im Hinblick auf die atomare Struktur, die chemische Zusammensetzung und die Oberflächenmorphologie/Mikrotopographie eingesetzt, wobei sich die folgenden Untersuchungsmethoden als besonders geeignet erwiesen haben: • Beugungsexperimente mit niederenergetischen Elektronen (LEED) und Röntgenstrahlung an Oberflächenatomen erlauben eine routinemäßige Untersuchung der periodischen Struktur von Festkörperoberflächen. Die atomare Struktur von Mineraloberflächen kann von der Volumenstruktur signifikant abweichen. Neben einfachen Relaxationserscheinungen, können die Atome/Moleküle an einer Mineraloberfläche ihre laterale Position verändern und eine Überstruktur ausbilden. Die strukturellen Informationen liefern wichtige Parameter für zum Beispiel Computersimulationen zur Reaktivität von Mineraloberflächen. • Für die Untersuchung der chemischen Zusammensetzung und der Oxidationszustände von Mineraloberflächen wurden bereits Röntgenphotoemissions- und Augerelektronenspektroskopie (XPS/AES), Röntgenabsorptionsspektroskopie (zum Beispiel XANES/ EXAFS), sowie verschiedene Ionentechniken (zum
Beispiel TOF-SIMS) sehr erfolgreich eingesetzt. Die Kenntnis, dass sich zum Beispiel viele Silikate inkongruent auflösen und eine an bestimmten Elementen verarmte Oberflächenzone im Nanometerbereich ausbilden, wurde vor allem durch die XPS Untersuchun-
Abb. 44: Computersimulation zur Bildung 2-dimensionaler Keime auf einer Baryt (001) Oberfläche. Die fächerartige Form der Wachstumsinsel stimmt außerordentlich gut mit beobachteten Wachstumsinseln überein. (siehe AFM Aufnahme in vorheriger Abb.). Somit kann die atomare Struktur von Wachstumsinseln entschlüsselt werden.
gen bestätigt. XANES/EXAFS Experimente haben wichtige Informationen über den Adsorptionsmechanismus vieler Spurenelemente an Mineraloberflächen geliefert und somit die Modellierung reaktiver Transportprozesse in porösen Medien ermöglicht. • Die Entwicklung der Rastersondenmikroskopie (Rastertunnelmikroskopie: RTM; englisch: Scanning Tunneling Microscopy: STM und Rasterkraftmikroskopie: RKM; englisch: Atomic Force Microscopy: AFM), für die Mitte der 80er Jahre der Physiknobelpreis vergeben wurde, hat auch in den Geowissenschaften neue Einblicke in die atomaren/molekularen Prozesse an Mineraloberflächen bei Fluid/MineralWechselwirkungen ermöglicht. Erstmals konnte die Morphologie/Mikrotopographie von Mineraloberflächen an Luft und in wässrigen Lösungen im atomaren Maßstab untersucht werden (44, 45). Darüber hinaus konnten Kristallisations- und Auflösungsprozesse in situ, das heißt in wässrigen Lösungen, direkt
beobachtet werden. Die Dynamik des Wachstums atomarer Stufen, die Bildung zweidimensionaler Keime, sowie die Ausbildung von Wachstumsspiralen konnte mit molekularer Auflösung beobachtet werden. Dadurch konnte der Beitrag einzelner Kristallisationsmechanismen zur Gesamtrate als Funktion der Übersättigung erstmals bestimmt werden. Viele Oberflächenreaktionen verlaufen nicht homogen verteilt auf einer Mineraloberfläche ab, sondern sind an bestimmten Oberflächenpositionen lokalisiert (strukturelle Defekte, atomare Stufen), wodurch die reaktive Oberfläche signifikant kleiner ist als die geometrische Oberfläche, wie sie mit Standardverfahren (BET-Verfahren) ermittelt wird. Meist ist es nicht möglich, die reaktive Oberfläche aus makroskopischen Experimenten zu bestimmen. Die Rastersondenmikroskopie ermöglicht es, Grenzflächenreaktionen direkt zu beobachten und somit die reaktive Oberfläche zu charakterisieren. • Erhebliche Fortschritte in der Computertechnologie ermöglichen Simulationen heterogener Grenzflächenreaktionen (molecular modeling, ab-initio-Berechnungen). Dadurch können fundamentale Reaktionsmechanismen an Mineraloberflächen aufgeklärt werden, die der direkten Messung häufig nicht zugänglich sind (zum Beispiel bei Redoxreaktionen, Schwermetalladsorption). Darüber hinaus liefern derartige Simulationen wichtige Informationen bei der Interpretation experimenteller Daten (zum Beispiel STMAufnahmen, Abb. 45). Die Anlagerung organischer Moleküle an Mineraloberflächen kann inzwischen sehr zuverlässig simuliert werden, wodurch neue Ansätze zum Verständnis dieser Wechselwirkungen verfolgt werden können (Abb. 43). Einerseits eröffnet sich dadurch die Möglichkeit, das Verhalten organischer Substanzen (zum Beispiel Huminsäuren) in Böden besser zu verstehen und andererseits bietet sich die Möglichkeit, gezielt Moleküle mit hochspezifischen Eigenschaften für industrielle Applikationen zu entwickeln. In diesem Zusammenhang sind auch neue computergestützte Visualisierungstechniken zu nennen, die die Verarbeitung hochdimensionaler Daten (Raum-Zeit-Reaktionskoordinaten) im Zusammenhang mit heterogenen Reaktionen ermöglichen. Ein fundiertes Verständnis heterogener Reaktionen an Mineraloberflächen setzt voraus, dass eine fachübergreifende Zusammenarbeit verschiedener Arbeitsrichtungen realisiert wird. Dabei lassen sich sowohl anwendungsorientierte Fragestellungen aus den Bereichen Umweltmineralogie und industrieller Applikation als auch fundamentale Gesichtspunkte aus dem Bereich Geochemie und Kristallwachstum integrieren.
Entwicklungsstand und praktische Umsetzung
Das wissenschaftliche Interesse und der industrielle Bedarf an Grundlagenforschung zur Reaktivität von Festkörperoberflächen hatten in den letzten 20 Jahren rapide zugenommen. Dennoch steckt die geowissenschaftliche Forschung in Deutschland auf diesem Gebiet im internationalen Vergleich erst in ihren Anfängen, obwohl deutsche Arbeitsgruppen in Physik und Chemie weltweit führend bei der Untersuchung von Festkörperoberflächen sind. In jüngster Vergangenheit lässt sich jedoch eine Trendwende erkennen. So hat der SFB 1574 „Wechselwirkungen“ an geologischen Grenzflächen in Göttingen einen wichtigen Impuls im Hinblick auf die Etablierung der Untersuchung von Grenzflächenproblemen innerhalb der Geowissenschaften gegeben. Die Untersuchung heterogener Reaktionen auf Mineraloberflächen im atomaren Maßstab würde einen dazu komplementären Forschungsansatz darstellen. Meist sind heterogene Reaktionen an Mineraloberflächen in natürlichen Systemen äußerst komplex und erfordern einen interdisziplinären Ansatz. Die Untersuchung von Grenzflächenreaktionen stellt daher innerhalb der Geowissenschaften, aber auch darüber hinaus, eine große Herausforderung dar, die es erfordert, verschiedene Fachrichtungen auf ein Schwerpunktthema zu fokussieren. Die Voraussetzung dafür sind in Deutschland sehr günstig. Mehrere Wissenschaftlergruppen arbeiten bereits an Projekten oder Themen, die im Zusammenhang mit Reaktionen an Mineraloberflächen stehen, jedoch fehlt zur Zeit noch eine fachübergreifende Abstimmung. Grundsätzlich scheint die Bildung eines durch die DFG geförderten Schwerpunktprogramms zur Reaktivität von Mineraloberflächen geeignet, einen Forschungsstand in Deutschland zu etablieren, der auf diesem Gebiet auch im internationalen Vergleich eine führende Rolle spielen kann.
Forschungs- und Entwicklungsaufgaben
Die Kenntnis heterogener Reaktionen an Mineraloberflächen ist für ein Verständnis zahlreicher Prozesse in unserer Umwelt erforderlich. Folgende Projekte können mittelfristig wichtige Informationen über die Wechselwirkung von Mineraloberflächen mit ihrer lokalen Umgebung sowie die Auswirkungen für unsere Umweltbedingung liefern: Kristallisation und Auflösung Minerale wachsen aus wässriger Lösung bevorzugt durch die Anlagerung von lokalen Ionen oder Molekülen an sogenannte Halbkristalllagen, die entlang atomarer und molekularer Stufen auftreten. Die Bildung atomarer Stufen erfolgt generell über zwei Mechanismen: (1) Der Austritt einer Schraubenversetzung an einer Mineral-
97
98
oberfläche stellt eine kontinuierliche Quelle atomarer Stufen bereit. (2) Die Bildung zweidimensionaler Keime stellt ebenfalls atomare Stufen auf einer Kristalloberfläche zur Verfügung. Allerdings kommt dieser Mechanismus erst bei höherer Übersättigung zum Tragen. Die Auflösung von Mineralen erfolgt ebenfalls bevorzugt an atomaren und molekularen Stufen. Die Bildung dieser Stufen erfolgt über die Ausbildung von Ätzgruben. In beiden Fällen, Wachstum wie Auflösung, sind die Beiträge der individuellen Reaktionsmechanismen als Funktion der Über- oder Untersättigung nicht bekannt. Direkte Abbildungsmethoden ermöglichen die in situ-Beobachtung von Kristallisations- und Auflösungsprozessen im atomaren Maßstab. Der Beitrag individueller Mechanismen (Monolagenwachstum, Spiralwachstum, Keimbildung) in wässriger Lösung als Funktion der Über- oder Untersättigung kann direkt ermittelt werden. Dadurch lassen sich fundamentale Erkenntnis zum Kristallwachstum gewinnen, die sowohl für die geochemische Grundlagenforschung, als auch für die angewandte Mineralogie benötigt werden. Die Untersuchung von Kristallisations- und Auflösungsprozessen kann durch numerische Modelle erheblich unterstützt werden. Moleküldynamische Simulationsmethoden ermöglichen es, heutzutage die Anlagerung von Kristallbausteinen (Ionen, Moleküle) quantitativ zu simulieren. Obwohl viele Computermodelle lediglich auf empirischen Kraftfeldern beruhen, bestätigen sie zum Teil mikroskopische Beobachtungen an Mineraloberflächen sehr gut. Die mikroskopischen Untersuchungen müssen durch makroskopische Laborexperimente, sowie Beobachtungen in der Natur begleitet werden. Letztlich kann das Ineinandergreifen experimenteller Ansätze und theoretischer Berechnungen im Zusammenhang mit der Kristallisation und Auflösung in wässriger Lösung einen erheblichen Synergieeffekt erzielen, um die fundamentalen Reaktionsmechanismen aufzuklären, die als Basis für die Bearbeitung komplexerer Systeme anzusehen sind. Während die hohe lokale Auflösung von STM und AFM Hinweise auf die Art und Kinetik ablaufender Reaktionen ergeben, erlaubt die Computersimulation Rückschlüsse auf die Änderungen der atomaren und elektronischen Struktur während der Reaktionen sowie der Auflösungs- und Wachstumsprozesse. Mit der Fähigkeit zur modellhaften Beschreibung der Gesetzmäßigkeiten dieser Prozesse ist es möglich, Voraussagen darüber zu treffen, welche dieser Prozesse in welchem Maße unter bestimmten äußeren Bedingungen zu erwarten sind. Im Gegensatz zu den mehr phänomenologisch orientierten Forschungsansätzen makroskopischer Versuche in der Vergangenheit, wie zum Beispiel Batchexperimenten, sollen zukünftige Forschungsprojekte mittels direkter submikroskopischer Beobachtungen und Computersimulationen dazu dienen, Kristallisations- und Auflösungsprozesse systematisch zu charakterisieren. Dabei wird der Einfluss der chemischen Zusammensetzung bei gleicher Struktur (zum Beispiel bei der isotypen Reihe BaSO4, PbSO4 und SrSO4 ) ebenso untersucht werden müssen, wie der Einfluss von äußeren Parametern wie pH- und Eh-Wert, Ionenzusammensetzung der
Lösung oder Temperatur. Dadurch würde es erstmals möglich, eine grundlegende Systematik der Reaktionsmechanismen zu erstellen. Somit würde es erheblich leichter, Wachstums- und Auflösungsreaktionen bei industriellen Anwendungen (zum Beispiel bei Verwitterungsprozessen an Bauwerken und Denkmälern), bei medizinisch relevanten Prozessen (zum Beispiel Zersetzungsprozesse an Zähnen) oder bei umweltrelevanten Phänomenen wie zum Beispiel Auslaugungsprozesse durch sauren Regen zu kontrollieren. Spurenelementeinbau Nach der Untersuchung von Kristallisationsprozessen in einfachen Systemen ergibt sich zwangsläufig die Betrachtung komplexer Systeme, bei denen der übersättigten wässrigen Lösung Fremdionen zugegeben werden. Der Einbau von Spurenelementen in das Kristallgitter während der Kristallisation aus wässriger Lösung beeinflusst das geochemische Verhalten vieler Schwermetalle im Grundwasser sowie die Wachstumsmorphologie vieler Minerale. Der Einbaumechanismus ist jedoch selbst für einfache Systeme, wie zum Beispiel Calcit, nicht bekannt. Für die Bestimmung von Verteilungskoeffizienten wird häufig ein thermodynamisches Gleichgewicht zwischen Mineral und Umgebung vorausgesetzt. Die Ausbildung eines Sektorzonarbaus während des Kristallwachstums zeigt aber zweifelsfrei an, dass der Einbau von Spurenelementen meist kinetisch kontrolliert ist. Wenige Untersuchungen ergeben eindeutig, dass der Verteilungskoeffizient von der Kristallisationsrate abhängt. Im Falle eines idealen Mischkristalls, wie zum Beispiel bei Einbau von Cadmium während der Bildung von (Ca,Cd)CO3, sind die Löslichkeitsprodukte der CaCO3 – CdCO3 Endglieder um mehrere Größenordnungen verschieden. Daher muss bei der Kristallisation eines Mischkristalls neben der Solidus – Solutus Gleichgewichtsbeziehung auch die Wachstumskinetik berücksichtigt werden. Die Entstehung von oszillierendem Zonarbau bei Mineralen, die aus wässriger Phase gebildet wurden, ist bis heute nicht eindeutig geklärt. Einerseits sprechen Untersuchungen an natürlichen Proben für temporäre Variationen in der chemischen Zusammensetzung der Fluide, aus denen das betreffende Mineral entstanden ist. Experimentelle Untersuchungen haben gezeigt, dass beim Wachstum eines idealen Mischkristalls unter diffusionskontrollierten Bedingungen sich ein oszillierender Zonarbau ausbildet, der über eine lokale Selbstorganisation der chemischen Zusammensetzung der fluiden Phase im Kontakt mit der wachsenden Mineraloberfläche kontrolliert wird. In beiden Fällen, Sektorzonarbau und oszillierender Zonarbau, sind die Einbaumechanismen an der Mineral/ Fluid Grenzfläche für die Fremdionen im atomaren Maßstab weitgehend unbekannt. Die Untersuchung natürlicher sowie unter definierten thermodynamischen Bedingungen synthetisch hergestellter Proben mittels hochauflösender Techniken, wie zum Beispiel TEM, TOF-SIMS, PIXE, kann einen vertiefenden Einblick in die Einbaumechanismen verschiedener Spurenelemente
ermöglichen. Die Kombination mit theoretischen Berechnungen hat bereits wesentlich zum Verständnis von Verteilungskoeffizienten in silikatischen Systemen beigetragen. Letztlich wird ein quantitatives Verständnis der geochemischen Verteilung vieler Spurenelemente sowie die zeitliche Entwicklung von Spurenelementstoffkreisläufen ermöglicht werden. Auch im Falle des Spurenelementeinbaus sind die grundlegenden Kenntnisse, die durch den Einsatz oberflächensensitiver und lokal und energetisch hochauflösender Methoden (STM/AFM, XPS, UPS, AES) gewonnen werden, von wichtiger praktischer Bedeutung über geologische Anwendungen hinaus, wie beim Schwermetalleinbau in Knochen oder der Schwermetallaufnahme von Flusssedimenten. Umfangreiche Studien werden hierzu nötig sein, die sowohl Experimente mit unterschiedlichsten Lösungen und Mineraloberflächen einschließen, zum Beispiel unter Benutzung einer Flüssigkeitszelle im AFM, als auch Untersuchungen im Ultrahochvakuum. UHV Systeme erlauben es, die Struktur, Topographie und chemische Zusammensetzung der Oberflächen zu bestimmen, andererseits wird es möglich, die Probe wohldefinierten Expositionsbedingungen auszusetzen. Organische Inhibitoren und Komplexbildner In erdoberflächennahen natürlichen Systemen wird die Wechselwirkung von Mineralen mit ihrer Umgebung zum Teil durch organische Moleküle kontrolliert. In Böden finden sich zahlreiche organische Verbindungen wie zum Beispiel Carboxyl-, Amino- und Huminsäuren, sowie makromolekulare Verbindungen wie Polysaccharide und Proteine, die die Kristallisation und Auflösung von Mineralen kontrollieren. Mikroskopische Untersuchungen von Kristallisations- und Auflösungsprozessen an Mineraloberflächen in Kombination mit makroskopischen Experimenten können die Frage nach den Wechselwirkungsmechanismen bestimmter funktioneller Gruppen der organischen Moleküle mit bestimmten Oberflächenpositionen der anorganischen Mineraloberflächen aufklären helfen. Organische Phosphonsäuren (zum Beispiel HEDP, NTMP) und Carbonsäuren (zum Beispiel Weinsäure, Zitronensäure, Malonsäure) werden bei der Kontrolle des Kristallwachstums in CaSO4-gebundenen Baustoffen und Zementen eingesetzt, um bestimmte Materialeigenschaften (Abbindezeit, Fließeigenschaften) zu erzielen. Organismen kontrollieren den Aufbau anorganischer Skelette über vergleichbare Mechanismen (zum Beispiel Matrizen-Theorie beim Aufbau karbonatischer Skelette). Die organischen Additive beeinflussen die Wachstumsund Keimbildungskinetik und somit die makroskopische Kristallmorphologie. Die mikroskopischen Wechselwirkungen zwischen den funktionellen Gruppen der Additive und den reaktiven Plätzen auf bestimmten kristallographen Flächen als Funktion des pH-Werts sind weitgehend unbekannt. Ein allgemein akzeptiertes Modell nimmt an, dass die Additive an den reaktiven Wachstumszentren adsorbiert werden und so das weitere Wachstum behindern. Neueste mikroskopische Untersuchungen bestätigen diese Hypothese, wobei jedoch spezifische Wechselwirkungen zwi-
schen Additivmolekülen und bestimmten reaktiven Plätzen identifiziert werden konnten. Diese Informationen sind aus makroskopischen Untersuchungen nicht zu entschlüsseln. Bei der Auflösung von Mineralen in natürlichen Systemen spielen organische Moleküle eine Schlüsselrolle. Es wäre daher wichtig, die Rolle verschiedener natürlicher (zum Beispiel Oxalsäure oder Huminsären) und künstlicher organischer Komplexbildner zu verstehen und wie sie mit Mineraloberflächen reagieren. Dies würde viel zum Verständnis der Bodenbildung/-degeneration und des Einflusses beitragen, den die durch Menschen erzeugten chemischen Verbindungen auf den Stoffkreislauf haben. Bei der Beseitigung schwerlöslicher Präzipitate (Kesselstein) werden häufig spezifische synthetische Komplexbildner eingesetzt (zum Beispiel EDTA, DTPA), die die Auflösungkinetik signifikant beschleunigen. Makroskopische Laborexperimente weisen darauf hin, dass viele organische Moleküle einen Komplex mit Kationen an der Mineraloberfläche bilden und deren Bindungen mit den benachbarten Anionen schächen und so eine beschleunigte Auflösung ermöglichen. Mikroskopische Untersuchungen können hier einen wesentlichen Beitrag zum Verständnis der Auflösungsmechanismen liefern, insbesondere in Kombination mit Computersimulationen. Letztlich kann die Kenntnis der fundamentalen Wechselwirkungsparameter für die Entwicklung leistungsfähiger Additive verwendet werden. Redoxreaktionen Redoxreaktionen auf Mineraloberflächen sind ein weiteres Beispiel, wie die lokale atomare und elektronische Struktur sich auf geologische und umweltrelevante Prozesse auswirken kann. So hängt die Bildung saurer Abflüsse von Sulfiderzlagerstätten eng mit der Fähigkeit von Sulfiden zusammen, in ihrer jeweiligen Umgebung oxidiert zu werden. Diese Oxidierbarkeit ist wiederum stark abhängig vom jeweiligen Mineral und seiner Mikrostruktur. So konnte mit Hilfe von STM-Experimenten und quantenmechanischen Berechnungen gezeigt werden, wie die Oxidation von Bleiglanz die lokale Elektronendichte um den Ort der Oxidation verarmt. Dabei ist die Oxidation als solche jedoch im Verhältnis zu zum Beispiel Pyrit relativ langsam, da der Spindichteübertrag vom Sauerstoff zur Bleiglanzoberfläche erschwert ist. Ab-initio Berechnungen haben ergeben, dass dieses Hindernis bei Anwesenheit von Fe(III) in Lösung wesentlich leichter überwunden werden kann. Mit ähnlichen Methoden konnte gezeigt werden, dass die Oxidation von Pyrrhotin nur an den Ecken von Terrassen an der Oberfläche des Minerals stattfinden kann, wo Eisen exponiert ist, während der Rest der Oberfläche durch Schwefel terminiert ist. Ein weiteres Beispiel ist die Ausfällung von Manganoxiden auf Eisenoxid- und Feldspatoberflächen, die zum Beispiel bei der Trinkwassergewinnung eine wichtige Rolle spielen kann. AFM-Experimente belegen, dass diese Ausfällung immer an atomaren Stufen beginnt und etwas schneller auf Goethit ist als auf Hämatit und um mehrere Größenordnungen schneller als auf Albit. Dieser Zusammenhang und eine quan-
99
100
Abb. 45: Experimentelle (links) und berechnete (rechts) STM-Aufnahme einer oxidierten Galenit-Oberfläche. Die Berechnungen zeigen, dass helle Punkte im experimentellen Bild an Schwefelpositionen lokalisiert sind. Oxidierte Stellen werden dunkel (A), da gebundener Sauerstoff (im linken Bild modelliert als eine senkrechte Reihe von O-Atomen) Elektronen bindet. Dagegen erscheint um die Oxidationsstelle (B) das Bild heller, da Elektronen dort weniger stark gebunden sind.
Mit diesen Informationen zum elektronischen und Bindungscharakter verschiedener Metalle bei unterschiedlichen Depositionsbedingungen auf den verschiedenartigsten Mineraloberflächen wird nicht nur das Verständnis der Bildung mikroskopischer Anlagerungen erleichtert, sondern es ergeben sich unter Umständen auch neue Wege für die Gewinnung von Erzen, die nur in disperser Form auftreten und die zur Zeit noch mittels umweltfeindlicher Komplexbildner (in der Regel Cyanid) gewonnen werden.
tenmechanische Behandlung des Elektronentransports in diesen drei Mineralen lassen darauf schließen, dass der Elektronenübertrag von Mn(II) (das in der Regel zu Mn (IV) oxidiert wird) auf den Sauerstoff in der Lösung durch eisenhaltige halbleitende Minerale wie Goethit erleichtert wird. Die Berechnungen erklären auch, welche Elektronenzustände an der Adsorption/Oxidation beteiligt sind. Die genaue Untersuchung eines solchen Elektronentransferprozesses erleichtert das Verständnis natürlicher Fällungsprozesse und fördert die Suche nach idealen Mineralen zur Verwendung als Filtermedien bei der Trinkwasserreinigung.
Mineraloberflächen und biologische Systeme Der Einfluss biologischer Systeme auf anorganische Minerale und Gesteine im Hinblick auf deren Verwitterung sowie die Rückkopplung auf die Entwicklung biologischer Gemeinschaften durch das Vorhandensein bestimmter Minerale und dem damit verbundenen Ablauf spezifischer Reaktionen findet seit wenigen Jahren zunehmend Beachtung. Bakterien in Böden neigen dazu, sich an Mineraloberflächen anzulagern und über Stoffwechselprodukte in Form organischer Säuren die Auflösungskinetik vieler Minerale signifikant zu beschleunigen. Es gibt zahlreiche Hinweise darauf, dass die geochemische Verteilung vieler Elemente in erdoberflächennaher Regionen der Erdkruste durch biologische Prozesse kontrolliert wird und diese somit die Lebensbedingungen in unserer Umwelt direkt beeinflussen. Darüber hinaus treten direkte Wechselwirkungen zwischen Mineraloberflächen und dem menschlichen Körper nach dem Einatmen mineralischer Stäube auf (zum Beispiel Asbest, Quarz). Das Langzeitverhalten inhalierter Mineralstäube und seine Auswirkungen auf den menschlichen Körper wurden bisher lediglich bezüglich der pathogenen Effekte untersucht. Die biochemischen Mechanismen der molekularen Wechselwirkungen zwischen Lungengewebe und Mineraloberflächen sowie die Rückkopplung der Reaktionsprodukte auf den Zellstoffwechsel sind nur unzureichend untersucht. Oberflächensensitive Messmethoden werden hier eine Lücke schließlich helfen.
Metalladsorption auf Mineraloberflächen Um den Prozess der Entfernung unerwünschter Schwermetalle aus Wässern und Lösungen, aber auch die Anreicherung zu fördernder Edelmetalle zu verstehen, ist es hilfreich, einen genaueren Einblick in die Bindungsverhältnisse zwischen Metall und Mineral zu gewinnen. So erlaubt die Verbindung von strukturabbildenden Techniken (STM, AFM), von Methoden, die den elektronischen Bindungszustand beschreiben (UPS, hochauflösendes XPS) und von ab-initio Berechnungen die Bindungsstärke und -energie, die Struktur der Adsorbate (zum Beispiel Inseln gegen Schichten), die Adsorptionsbedingungen (zum Beispiel Redoxpotenzial) oder die Rolle der beteiligten chemischen Verbindungen, wie zum Beispiel die Bildung von metallischen Polysulfiden, zu charakterisieren.
Frühwarnsysteme im Erdmanagement
Ü
ber 4 Millionen Menschen haben im 20. Jahrhundert bei weltweit mehr als 50.000 Naturkatastrophen ihr Leben verloren. Die ökonomischen Verluste belaufen sich gegenwärtig auf 60 Milliarden US$ jährlich mit deutlich steigender Tendenz. Nicht nur die Länder der Dritten Welt sind betroffen, sondern mit wachsender Häufigkeit und Stärke auch die Industrienationen. Das Hochwasser in Ostdeutschland, im August 2002, forderte beispielsweise mehr als 20 Tote und verursachte einen volkswirtschaftlichen Schaden von circa 20 Milliarden Euro. Damit kam es in Deutschland nach dem Oder-Hochwasser im Sommer 1997 (volkswirtschaftlicher Schaden in Höhe von circa 330 Millionen Euro) innerhalb von nur wenigen Jahren zu zwei katastrophalen Hochwasserereignissen. Vorsorge ist heute gefragt gegen alle Arten natürlicher Bedrohung; insbesondere gegen Erdbeben, Vulkanausbrüche, Hangrutschungen, Starkwinde und Hochwasser, aber auch gegen langsam ablaufende Vorgänge, wie zum Beispiel lang anhaltende Dürreperioden. Das Wort „Naturkatastrophe“ macht deutlich, dass die Rolle des Menschen als Mitverursacher vielfach unterschätzt oder gar übersehen wird. Erst die Wechselwirkung von Extremereignis und menschlicher Gesellschaft bestimmt, ob eine Katastrophe eintritt oder verhütet werden kann. In Kenntnis der steigenden Verletzbarkeit unserer Gesellschaft und der damit verbundenen drastischen Zunahme von Naturkatastrophen hatten die Vereinten Nationen die neunziger Jahre zur Dekade der Katastrophenvorbeugung (International Decade for Natural Desaster Reduction, IDNDR) erklärt. Diese Dekade, die 1999 zu Ende ging, eröffnete die Möglichkeit, international, interkulturell und interdisziplinär die Kenntnisse auf dem Gebiet der Katastrophenvorbeugung zu bündeln. Eines der Ergebnisse der IDNDR war die Identifizierung von Frühwarnsystemen als fundamentales Werkzeug zur Schadensminderung.
Trotz erheblicher Fortschritte bestehen jedoch in der Entwicklung und Anwendung von Frühwarnsystemen noch erhebliche Forschungsdefizite. Zukünftige Forschungs- und Entwicklungsvorhaben zielen daher auf die Stärkung von Frühwarnkapazitäten durch Verbesserung wissenschaftlicher Grundlagen, Entwicklung neuer Technologien und prototypische Implementierung von Frühwarnsystemen. Durch den Erkenntnisgewinn und den Aus- und Aufbau von derartigen Systemen sollen die Verluste durch Naturkatastrophen (einschließlich anthropogenen verstärkter Ereignisse) signifikant reduziert werden.
101
• Ein Warnsystem dient der Überwachung von Gefährdungen und der Vorhersage von Gefährdungsparametern. • Eine Risikoprognose erlaubt die Identifizierung von gesellschaftlichen Gruppen und von Sektoren der gesellschaftlichen Infrastruktur, die besonders vulnerabel sind. • Eine Strategie, die die Gesellschaft auf Katastrophen vorbereitet, liefert die Basis dafür, dass Maßnahmen zur Schadensminderung akzeptiert werden und realisierbar sind. • Ein Kommunikationssystem liefert Informationen an eine vorbereitete Gesellschaft.
Themenschwerpunkt: „Frühwarnsysteme im Erdmanagement“. Förderstatus BMBF: Zur Zeit keine Förderung des BMBF. Förderstatus DFG: Zur Zeit keine Förderung durch die DFG.
Definition und Bedeutung
E
in Frühwarnsystem ist ein komplexes System, das nicht nur Informationen über eine zu erwartende Gefährdung liefert, sondern auch die Auswirkungen quantifiziert, so dass effektive Schritte zur Reduzierung des Risikos auf internationaler, nationaler und lokaler Ebene eingeleitet werden können. Es besteht aus vier integrierten Komponenten:
Tab. 3: Die definierten sechs Schwerpunkte tragen dabei unterschiedlich zur Entwicklung dieser Komponenten bei. Die grau unterlegten Felder in der Tabelle weisen auf Beiträge hin, die ein jeweiliger Forschungsschwerpunkt zu einer der vier Komponenten eines Frühwarnsystems beiträgt. Warnsystem zur Überwachung/ Vorhersage der Gefährdungen
102
Monitoringsysteme Quantitative Modelle Quantifizierung und Berücksichtigung von Unsicherheiten Prognose sozioökonomischer Auswirkungen, Vulnerabitität komplexer gesellschaftlicher Systeme Informationssysteme
Politisch-administrative Rahmenbedingungen, lokales Risikoverständnis institutionelle Kapazität
Forschung und Entwicklungsbedarf für Frühwarnsysteme
Frühwarnsysteme sind relevant für alle Arten von Naturkatastrophen wie zum Beispiel geologische Desaster (Erdbeben, Vulkanausbrüche, Massenbewegungen) oder hydrometeorologische Desaster (Sturm, Hochwasser, Dürre). Sie bestehen aus einer viergliedrigen Kette: Monitoring – Vorhersage/Prognose – Warnung – Aktion. Dabei muss zwischen kurz- und längerfristigen Aspekten unterschieden werden. Kurzfristige Vorhersagen und Warnungen (zum Beispiel bei Sturm und Hochwasser) können mit schnellem Handeln signifikant zur Reduzierung von Opfern, physischen und psychischen Schäden führen, während langfristig angelegte Vorhersagen/Pro-
Risikoprognose Vulnerabilität
Vorbereitung der Gesellschaft, Beitrag zur Schadensminderung
Kommunikationssystem für die vorbereitete Gesellschaft
gnosen eher geeignet sind, die Vorsorgepotenziale von gefährdeten Gesellschaften zu verbessern und ein nachhaltiges Katastrophenmanagement aufzubauen. Frühwarnsysteme können globalen, regionalen oder lokalen Charakter haben. Forschungs- und Entwicklungsbedarf besteht – unabhängig von der Art der betrachteten Naturgefahr – insbesondere bei folgenden Themen:
Entwicklung und Verbesserung von Monitoring Systemen: Eine effektive und effiziente Frühwarnung gründet sich auch auf die Fähigkeit, umfangreiche, zuverlässige und rechtzeitige Informationen zu sammeln. Eine neue Generation von Monitoring Systemen eröffnen Möglichkeiten für eine deutlich bessere, frühere und schnellere Wahrnehmung von signifikanten Veränderungen. In zunehmendem Maße erweisen sich Methoden der Fernerkundung als wertvolles Mittel für die Frühwarnung. Mit ihrer Hilfe lassen sich flächenhaft großräumige Aussagen über den Zustand von Atmosphäre und Erdoberfläche machen und somit Hinweise auf bevorstehende extreme Naturereignisse (zum Beispiel Veränderung der Krustendeformation bei Vulkanen als mögliches Vorläuferphänomen für einen Ausbruch) oder Eingabedaten für Vorhersagemodelle (zum Beispiel satellitengestützte Ableitung von großräumigen Datensätzen von Wetterparametern zur Vorhersage der Zugbahn von tropischen Wirbelstürmen) ableiten. Die Entwicklung und Anpassung von neuen Messmethoden und automatischen Sensorsystemen ist zur Verbesserung von Frühwarnsystemen dringend erforderlich. Ebenso besteht großer Bedarf an automatischen Alarmsystemen, die Signale von Feldstationen sammeln, analysieren und bei Überschreitung von definierten Schwellenwerten einen Alarm auslösen. Fragen zur optimalen Messnetzdichte, zur Kombination von verschiedenen Monitoring-Verfahren und zur gegenseitigen Ergänzung von Messdaten und Modellen zur Beschreibung physikalischer Prozesse stehen im Vordergrund. Neben der Entwicklung und Implementierung von permanenten integrierten Monitoring-Systemen besteht auch ein erheblicher Bedarf an mobilen, kostengünstigen und schnell einsetzbaren Systemen.
Entwicklung und Kalibrierung quantitativer physikalischer Modelle unter Einbeziehung wissensbasierter Komponenten: Die größten Fortschritte im Bereich Frühwarnung wurden in den vergangenen 30 Jahren ausschließlich durch verbesserte Monitoring-Systeme erzielt. Die Fortschritte im Bereich der Simulationsmodelle zur quantitativen Beschreibung der zugrundeliegenden physikalischen Prozesse sind dagegen deutlich weniger ausgeprägt. Hier bedarf es grundlegender Verbesserungen, um den Anforderungen an Frühwarnsysteme gerecht zu werden. Gerade in der Kopplung von gemessenen Daten und der numerischen Simulation liegt ein großes Entwicklungspotenzial. Im Gegensatz zur heutigen Praxis, die
eine hohe Instrumentalisierung vorsieht, könnten bei geschickter Verknüpfung von numerischer Simulation und wenigen, gezielten und hochauflösende Messungen die Kosten derartiger Monitoring-Systeme deutlich gesenkt, die Leistungsfähigkeit in der Frühwarnung aber gleichzeitig signifikant gesteigert werden. Des weiteren ermöglicht es die Modellierung von Prozesskomponenten, die mathematisch nicht vollständig exakt beschrieben werden können. Solche hybriden Simulations- und Prognosemodelle ermöglichen zum Beispiel die Nutzung unscharfer beziehungsweise lückenhafter Daten. Quantifizierung der Unsicherheit von Vorhersagen/Prognosen und Berücksichtigung dieser Unsicherheit in entscheidungsunterstützenden Systemen: Jede Vorhersage/Prognose ist von Haus aus mit Unsicherheiten verbunden. Diese Unsicherheiten sind umso größer, je früher die Vorhersage/Prognose erfolgt. Sehr frühe Vorhersagen/Prognosen erlauben längere Warn- und Reaktionszeiten, allerdings um den Preis einer verminderten Zuverlässigkeit. Es ist also eine Abwägung zwischen der Güte der Vorhersage/Prognose und der Warnzeit notwendig. Die Frage der Unsicherheit ist auch mit dem möglichen Schadensausmaß verknüpft. Warnungen vor großen Schadensereignissen, die einschneidende Maßnahmen zur Schadensreduktion verlangen, erfordern eine zuverlässigere Vorhersage/Prognose als Warnungen vor Ereignissen mit vergleichsweise kleinen Schäden. Heutige Frühwarnsysteme machen kaum Aussagen zur Zuverlässigkeit ihrer Vorhersagen/Prognosen. Neben naturwissenschaftlichen-technischen Aspekten (Zuverlässigkeit von Messdaten und Modellen, Fehlerfortpflanzung bei kaskadierten und/oder parallelen Modellkomponenten, Methoden zur Bereitstellung von Konfidenzintervallen und so weiter) ist auch von Bedeutung, wie Unsicherheitsangaben von den betroffenen Akteuren verarbeitet und in ihren Entscheidungen berücksichtigt werden können.
Vorhersagen/Prognosen von sozioökonomischen Auswirkungen extremer Ereignisse: Die Wirksamkeit eines Frühwarnsystems muss über den Nutzen für die Betroffenen bewertet werden. Dieser zeigt sich darin, ob und in welchem Maße durch die Warnung Schäden und Verluste verhindert werden. Frühwarnsysteme sollten in verstärktem Maße ihre Vorhersagen/Prognosen auf den Bereich der Auswirkungen auf Menschen, Umwelt und Sachkapital (Gebäude, Infrastruktur und so weiter) ausweiten. Der Schritt von der Vorhersage/Prognose der Gefährdung zur Vorhersage/ Prognose des Risikos ist eine kritische Herausforderung für Frühwarnsysteme. In bestimmten Situationen (zum Beispiel bei der Hochwasserwarnung für ein größeres Flussgebiet) könnten solche Ansätze die Basis für neue Schutzstrategien in Echtzeit darstellen. Mit Hilfe von sozialen, ökologischen und ökonomischen Daten und Modellen zur Ermittlung der Auswirkungen könnten die erwarteten Schäden für
103
verschiedene Schutzmaßnahmen vorhergesagt werden. Es würde im Prinzip möglich sein, diejenigen Maßnahmen mit den geringsten Schäden beziehungsweise dem größten Nutzen zu ergreifen. Eine solche Vorgehensweise stellt eine neue Qualität dar, da Abwehrmaßnahmen nicht lange vor dem möglichen Ereignis nach festgelegten Regeln oder spontan ergriffen werden müssen. Vielmehr erfolgt die Auswahl der Maßnahmen aufgrund einer Risikominimierung, die während des Anlaufens des Ereignisses – in Echtzeit – durchgeführt wird und auf dem Einsatz integrierter Modellen (Integration von naturwissenschaftlich-technischen und sozioökonomischen Modellen) basiert.
104
Entwicklung geeigneter Informationssysteme für Frühwarnsysteme unter besonderer Berücksichtigung der technischen und semantischen Interoperabilität von Teilsystemen: Die Entwicklung geeigneter fachbezogener Informationssysteme ist eine wesentliche Aufgabe zur Erstellung einer integrierten Frühwarnkette. Besondere Berücksichtigung erfordert hierbei der Aufbau und Einsatz von Systemarchitekturen, die eine technische und semantische Interoperabilität der einzelnen Teilsysteme (komponentenbasierte GIS-Technologie) ermöglichen. Informationssysteme zur Bearbeitung katastrophenrelevanter Daten sind für alle vier Phasen der Frühwarnkette von grundlegender Bedeutung. Da Katastrophen stets einen konkreten raum-zeitlichen Bezug besitzen, müssen solche Daten als dynamische Geodaten mit absoluter und relativer Lage im Raum in verschiedenen Skalen (lokal, regional und global) behandelt werden. Dafür stellt die GIS-Technologie geeignete Methoden und Systeme zur Verfügung. GIS-basierten Fachinformationssystemen kommt in mehrfacher Hinsicht eine integrierende Aufgabe für die gesamte Frühwarnkette zu: • Verbindung von naturwissenschaftlichen und sozioökonomischen Fachdaten über ihren gemeinsamen Raumbezug, • Verknüpfung geometrisch-topologischer Daten • Gemeinsame Nutzung von Geobasisdaten • Kopplung von GIS-Techniken mit Kommunikationstechniken. Bei der Entwicklung GIS-gestützter Informationssysteme sind insbesondere folgende Aspekte von Bedeutung: • Nutzung verteilter Infrastrukturen von Geodaten in lokalen und regionalen Intranets wie auch im globalen Internet einschließlich der Unterstützung mobiler Endgeräte mit bidirektionalem Datenaustausch, • Gewährleistung der technischen und semantischen Interoperabilität zwischen GIS-Komponenten (zum Beispiel OGC konform) und Modellkomponenten (zum Beispiel HLA konform), • Berücksichtigung maßstabsübergreifender Analysen und „genesteter“ Modellierungen (up and downscaling),
• Innovative Visualisierungsmethoden (zum Beispiel raum-zeitliche temporale, non-temporale Animationen und interaktive Visualisierungen) zur effizienteren Informationsvermittlung und Entscheidungsunterstützung für die unterschiedlichen Nutzergruppen innerhalb der Frühwarnkette. • Beschreibung, Verwaltung und Integration von Qualitätsmaßen (ISO-Standards) zur Bewertung der Eingangsdaten und der Modellresultate. Der eigentliche innovative Ansatz besteht in der Integration sehr unterschiedlicher und komplexer Werkzeuge (Datenerfassung, Datenanalyse, Informationsübertragung, Visualisierung, Simulation, Animation, Entscheidungsunterstützung), so dass die benötigten Informationen rechtzeitig und zuverlässig in geeigneter Weise zur Verfügung stehen. Durch eine erhöhte Benutzerfreundlichkeit von computergestützten Systemen können Katastrophenmanagern im Katastrophenfall Methoden zugänglich gemacht werden, die bisher nur von wissenschaftlichen Fachleuten angewendet werden konnten. Dazu trägt für den mobilen Einsatz die Entwicklung von robusten Benutzerschnittstellen bei.
Prototypische Implementierung von Frühwarnsystemen unter Einbeziehung von Industrie, operationellen Warndiensten und gefährdeter Bevölkerung: Forschungs- und Entwicklungsarbeiten zu Frühwarnsystemen sollen mit dem Ziel der Entwicklung von Prototypen angegangen werden, die anschließend von interessierten Unternehmen zu marktfähigen Produkten weiterentwickelt werden sollen. Die entwickelten wissenschaftlichen Methoden sollen anhand eines oder mehrerer Fallbeispiele implementiert und getestet werden. Vorhandene und neue Technologien von Frühwarnsystemen (integriertes Monitoring, zum Beispiel Kombination von Messungen in Beobachtungsnetzen am Boden mit erdorientierten Satellitenverfahren, Simulation der physikalischen Prozesse und ihrer Auswirkungen auf Mensch und Umwelt, Kommunikationssysteme, Echtzeit-Anbindung an integrierte Informationssysteme und so weiter) müssen für den operativen Einsatz verknüpft werden. Während einzelne Segmente eines solchen Frühwarnsystems zum Teil gut entwickelt sind, besteht Bedarf an der geeigneten Kombination dieser Segmente für eine integrierte Frühwarntechnologie. Zum Beispiel könnte die bestehende Frühwarnung des Luftverkehrs vor Kamtschatka und Alaska auf eine weltweite, bedarfsorientierte Basis ausgebaut und via Satelliten-Verbindung mobil abrufbar werden. Weiterhin erfordert die Implementierung die Integration der Arbeiten in ein systematisches Rahmenkonzept unter Beteiligung der betroffenen Akteure und Berücksichtigung der spezifischen Randbedingungen. Kosten und Nutzen von Frühwarnsystemen sind fallspezifisch zu erfassen und mit anderen Schutzmaßnahmen zu vergleichen, Methoden zur Bewertung von Frühwarnsystemen sind zu entwickeln und Strategien zur effektiven Umsetzung der Warnungen zu erarbeiten.
Zusätzlich zu den wissenschaftlich-technischen Anforderungen an Frühwarnsysteme sind für deren Effizienz zwei Punkte hervorzuheben: • Die integrative und interdisziplinäre Betrachtung der Frühwarnung als Kette die vom Monitoring bis zur Reaktion reicht. • Die Vorhersagen müssen verstärkt auf die Risiken abheben und dürfen nicht bei der quantitativen Beschreibung der Gefährdungen stehen bleiben.
Gesellschaftsbezogene Themen der Frühwarnung
Gesellschaftliche Vulnerabilität ist im Zusammenhang mit der Konzeption von Frühwarnsystemen ein wichtiges eigenständiges Forschungsfeld. Als prioritäre Forschungsfelder können die folgenden drei Themen identifiziert werden: Regionale Relevanz und kulturspezifische Orientierung Weltweit sind 96 % aller Katastrophenopfer in Entwicklungsländern zu beklagen, weil hier die Verwundbarkeit gegenüber Naturereignissen am größten ist und bestimmte Desastertypen (Dürren, Überschwemmungen, et cetera) anthropogen noch verstärkt werden. In diesen Regionen bestehen nur begrenzte technische und organisatorische Möglichkeiten einer Frühwarnung. Deshalb kommt der Entwicklung von Frühwarnsystemen, die an die speziellen Bedingungen von Entwicklungsländern und ihrer Menschen angepasst sind, eine besondere Bedeutung zu. Primäres Forschungsziel sollte hierbei aus den genannten Gründen nicht die technologische Optimierung, sondern die Effizienzsteigerung von Frühwarnsystemen sein, unter anderem auch durch die höhere Akzeptanz durch die Betroffenen. Hieraus ergibt sich ein spezieller Forschungsbedarf hinsichtlich der Anpassung und Umsetzbarkeit vorhandener beziehungsweise noch zu erarbeitender Frühwarnsysteme in Entwicklungsländern, wobei insbesondere auch die kulturspezifischen und gesellschaftlichen Rahmenbedingungen zu berücksichtigen sind. Vulnerabilität im Zusammenhang mit Desastern unterschiedlichen Verlaufstyps Bei der Erfassung des sich verändernden situationsabhängigen Grades der Vulnerabilität von Menschen und der Entwicklung und Evaluierung von Möglichkeiten der Desasterfrühwarnung sind folgende Typen von Desastern unterschiedlichen Verlaufs zu unterscheiden: • langfristige Trends mit der Tendenz zu wachsendem Risiko („schleichende Katastrophe“), wie im Falle der Desertifikation • zyklisch-saisonale Ereignisse und Prozesse, wie unter Berücksichtigung der potenziellen Nutzer Hochwasser und Dürren • kurzfristige Schockereignisse, wie unter Berücksichtigung der potenziellen Nutzer Erdbeben.
Wichtige Parameter der Klassifizierung sind sowohl Frequenz und Magnitude des Ereignisses als auch die gesellschaftliche Schadenswirkung. Analyse des Verhaltens Betroffener in unterschiedlichen Desaster-Prozessphasen, Erarbeitung und Evaluierung von Desaster-Präventionsvorschlägen Desaster können als Prozesse verstanden werden, denen bestimmte Entwicklungen vorausgehen (Prä-Desaster) und nachfolgen (Post-Desaster). Das sozialwissenschaftliche Interesse richtet sich hierbei auf das Verhalten der Betroffenen vor, während und nach dem Desaster, auf ihre Fähigkeit zur Anpassung (Adaptation Capacity), zur Bewältigung (Coping Capacity) und zur Erholung (Recovery Capacity) in Bezug auf das desaströse Ereignis. Frühwarnung benötigt ein System rasch abrufbarer Information über gesellschaftliche Vulnerabilität. Sie ist primär in der Prä-Desaster Phase zu berücksichtigen, aber auch während des Ereignisses selbst und in der Post-Desaster Phase relevant. Konkrete Fragestellungen der sozialwissenschaftlichen Desaster-Präventionsforschung richten sich dabei auf folgende Punkte: • Identifikation struktureller Schwächen der Prävention innerhalb unterschiedlicher Gesellschaften • Erfassung politisch-administrativer Rahmenbedingungen und sich daraus ergebender Potenziale beziehungsweise Defizite für eine Frühwarnung • Analyse des lokalen Risikoverständnisses: Wahrnehmung von und Umgang mit Risiken • Analyse indigenen Wissens als Grundlage zu erarbeitender sozioökonomischer und soziokultureller Indikatoren • Evaluation der Effektivität von endogener und exogener Desasterbewältigung • Analyse der institutionellen Kapazität von „disaster mitigation“ in Gesellschaften • Abschätzung der Wiederholungswahrscheinlichkeit von Desasterereignissen • Erfassung, Analyse und Prognose von Folgekonflikten nach Desaster und Recovery-Maßnahmen (unter Berücksichtigung der potenziellen Nutzer Umsiedlung) • Bewertung der Rentabilität von Desaster-Präventionsmaßnahmen • Analyse von „best practices“ unter Entwicklungsbedingungen: Positivkriterien der Erfolgsbeispiele • Überlegungen zu Alternativen von/zur Prävention
105
erheblichem Forschungsbedarf identifiziert werden: • Integrierte seismische Gefährdungsabschätzung • Zuverlässige und schnelle Methoden zur Quantifizierung von lokalen Verstärkungseffekten • Quantifizierung der Vulnerabilität von Risikoregionen • Quantifizierung von Risiken • Prognose von Nachbeben • Monitoring mit Echtzeit-Informationssystemen • Erdbeben Informationssysteme • Schwachstellenanalyse von Systemen Abb. 46: Zerstörte Infrastruktur nach dem Erdbeben von Kobe/Japan 1995.
Desaster-spezifische Forschungsthemen
106
Geologische Desaster: Erdbeben Die Möglichkeit der Vorhersage von Erdbeben im Sinne einer exakten Angabe von Ort, Zeit und Stärke eines Erdbebens ist bisher nicht gegeben. Die heute existierenden wissenschaftlichen Erkenntnisse und technischen Möglichkeiten reichen aber aus, um Frühwarnsysteme zu erproben, die für einzelne Regionen einen erheblich verbesserten Schutz vor den Auswirkungen von Erdbeben versprechen (Risikominderung). Kern des Systems ist ein vollautomatisch arbeitendes Seismometernetz, das den Eintritt eines Erdbebens unmittelbar vor Ort mit minimaler Zeitverzögerung detektiert und quantifiziert, sowie ein Kommunikationssystem, das die Minuten bis Sekunden zwischen dem Eintritt des Erdbebens (in einiger Entfernung von einem Ballungszentrum oder einer Megastadt) und dem Eintreffen der zerstörerischen Oberflächenwellen am Ballungszentrum nutzt, um dort Alarm auszulösen beziehungsweise „Shut Down“-Systeme zu aktivieren. Darüber hinaus wird Erdbeben Frühwarnung als Bereitstellung von Informationen bezüglich der Gefährdung und des Risikos durch Erdbeben als Grundlage für Vorsorge, Schutz und Rettungsmaßnahmen verstanden. Dies erfordert als langfristige Komponenten die Angabe probabilistischer Gefährdungsaussagen und einer darauf basierenden Prognose von Schäden unter Einbeziehung lokaler Standorteffekte. Unmittelbar vor einem Beben (10 bis 60 Sekunden) können die oben skizzierten automatischen Abschaltungen auf der Grundlage von verlässlichen Warnungen erfolgen. Die schnelle (near realtime) Bereitstellung von Informationen über aufgetretene Bodenerschütterungen (ShakeMaps) und eingetretene Schäden (Schadensprojektion) dienen sowohl einem effizienten Katastrophenmanagement mit optimalem Einsatz von Rettungsressourcen, als auch einer schnellen Abschätzung der Empfindlichkeit gegenüber Nachbeben. Es können in diesem Zusammenhang 8 Themen mit
Die größte Herausforderung liegt in der Entwicklung eines integrierten Frühwarnsystems bis zur Anwendungsreife, das Module aus der gesamten ErdbebenWirkungskette zusammenführt, auf unterschiedlich strukturierte Regionen übertragbar ist und sowohl Möglichkeiten permanenter als auch mobiler Nutzung bietet. Ein auf diese Fragestellungen ausgerichtetes Forschungsprogramm muss daher sinnvoller Weise vier Stufen berücksichtigen, • die Entwicklung einzelner Frühwarnmodule • die Erprobung der Module unter verschiedenen Bedingungen • die Integration der Module zu einem System und • die Erprobung des Gesamtsystems.
Abb. 47: Der Ausbruchs des Ätnas 1669 (Die Reproduktion einer Freske in der Kathedrale von Catania zeigt den Hauptkrater neben Nicolosi).
Geologische Desaster: Vulkane Anders als bei Erdbeben ist es in der Vergangenheit schon mehrfach gelungen, Vulkanausbrüche kurzfristig auf Grundlage von empirischen Beobachtungen vorherzusagen. Möglich war dies im Besonderen für Vulkane mit langen Ruhephasen von Jahrzehnten bis Jahrhunderten. Für aktive Vulkane mit Ereignisintervallen von wenigen Jahren ist die Vorhersage schwieriger; sie setzt ein genaues Verständnis der Mechanismen und physikali-
schen Prozesse voraus. Hierzu sind Langzeituntersuchungen über viele Eruptionen nötig. Leichter lässt sich das Gefährdungspotenzial bestimmen. Die Gefährdung und damit verbunden das Risiko an Vulkanen geht direkt hervor aus den Eruptionsprodukten (pyroklastische Ströme, Druckwellen, Gaswolken, Steinschläge, Schlammlawinen und Ascheregen), indirekt durch zeitlich verzögerte Lahars und Flankenstürze. Der Grad der Gefährdung lässt sich ableiten aus der Eruptionshistorie, der Morphologie und Flankensteilheit sowie aus Daten über dynamische, physikalische und chemische Prozesse eines Vulkans. Hat ein Ausbruch bereits stattgefunden, so ist es wichtig, die Art und Größe der Eruption, sowie die Fortpflanzungsgeschwindigkeit und Ausbreitungsrichtung der Schaden verursachenden vulkanischen Phänomene frühzeitig zu erkennen, um die Bevölkerung rechtzeitig warnen zu können. Die Forschungsplanung im Bereich Frühwarnsystem Vulkanologie muss deshalb 4 unterschiedliche Stadien in der Entwicklung von virulenten Vulkansystemen berücksichtigen, die jeweils spezifische Forschungsansätze beziehungsweise unterschiedliche Kombinationen von Forschungsmethoden erfordern. • Latente Gefährdungs-Langzeitprognose • Aktivierungsstadium-Prozessverständnis • Ereignisstadium-Simulationssoftware, Messsysteme • Langfristige posteruptive Auswirkungen-Nachsorgestrategie
Geologische Desaster: Massenbewegungen Eine Frühwarnung von Massenbewegungen ist bisher nahezu ungelöst. Dies liegt im Wesentlichen daran, dass Massenbewegungen in sehr unterschiedlichen Prozesstypen auftreten (Fallen, Kippen, Gleiten, Driften, Fließen und in Kombination) und grundsätzlich zwischen dem erstmaligen Auftreten und der Reaktivierung einer vormals bewegten Masse unterschieden werden muss. Weiterhin muss unterschieden werden, ob sich die Konzeption einer Frühwarnung auf eine einzelne rezent aktive oder inaktive Rutschmasse bezieht, oder im prognostischen Sinne für darüber hinaus gehende Raumskalen gedacht ist. Die Grundlage bildet bei beiden Ansätzen die Gefahrenidentifikation und -analyse. Die Gefahrenidentifikation und -analyse individueller Massenbewegungen ist ein unverzichtbares Instrument der Entwicklung von Gefahrenzonenplänen. Dadurch werden Grundlagen, sowohl für aktive technische, wie auch passive vorbeugende Schutzmaßnahmen geschaffen. Die Analyse beinhaltet die Erfassung des Typs der Massenbewegung, das Volumen und die Form, sowie vor allem die Bewegungsgeschwindigkeit und Dynamik der sich bewegenden Masse. Weiterhin ist durch die Analyse beabsichtigt, Prognosen für die mögliche Entwicklung der Phänomene zu erarbeiten. Von entscheidender Bedeutung bei diesen Analysemodellen ist die Kenntnis der dispositiven, auslösenden und bewegungskontrollierenden Faktoren der Massenbewegungen, die oftmals nur über anspruchsvolle Mess- und Überwachungsinstrumente ermittelt werden können. Besonders für langsam kriechende Massen sind lange Messzeitreihen er-
Abb. 48: Hangrutschung in einem Armenviertel von Venezuela 1999.
forderlich. Die hohe Bedeutung des Hangwassers für den Bewegungsablauf und ihre Berücksichtigung bei der Gefahrenidentifikation und -analyse von Rutschungen wird hervorgehoben. Als auslösende Faktoren sind besonders Erdbeben, Niederschläge als intensive Starkereignisse und/oder lang andauernde Feuchteperioden, fluviale Unterschneidungen, Vulkanausbrüche sowie anthropogene Beeinflussungen zu nennen. Ein weiterer Aspekt der Bedeutung von Massenbewegungen liegt in ihrem Potenzial (zum Beispiel bei Murgängen und Schuttströmen), Hangsedimente in die Vorfluter zu transportieren, die zu Sedimentbelastungen oder gar Flussabdämmungen führen können. Eine Frühwarnstrategie für Massenbewegungen beinhaltet die Bereitstellung von Informationen über gefährdete Objekte und Regionen sowie über das zu erwartenden Risiko. Diese Information bildet die Grundlage eines integrierten Risikomanagements. Gefahr, Vulnerabilität und Risiko sind in höchstem Maße vom Massenbewegungstyp und dessen Aktivitätsgrad abhängig, so dass eine differenzierte Strategie der Vorsorge sowie der Schutz- und Rettungsmaßnahmen erforderlich sind. Der Forschungsbedarf liegt in folgenden Themenfeldern: • Gefahrenidentifikation und -analyse individueller Massenbewegungen und deren räumlichen Auftretens mit Hilfe qualitativer, semi-quantitativer und prozessbasierter Modellierung • Potenziale von Monitoringsystemen für die Aktivität von Massenbewegungen • Identifikation von prozessspezifischen Risikoelementen und ihre Vulnerabilität • Methoden der Risikoanalyse und -bewertung und präventives Risikomanagement • Optimierung von Frühwarnsystemen für Massenbewegungen • Kopplung von Frühwarnsystemen Hydrometeorologische Desaster Hydrologische und meteorologische Extremereignisse treten auf sehr unterschiedlichen räumlichen und zeitlichen Skalen auf. Während Dürren subkontinentale Ausdehnungen bei einer Dauer von Monaten bis Jahren
107
erreichen, können Hagelereignisse auf wenige Quadratkilometer und wenige Minuten beschränkt sein. Die Qualität der Vorhersagen und der mögliche Vorhersagezeitraum werden stark durch die Skalen der Wetterereignisse bestimmt. Während atmosphärische Prozesse auf der synoptischen Skala (Zyklone, Antizyklone im Bereich der Polarfronten) heute mit gutem Erfolg über einige Tage vorhergesagt werden können, gibt es auf den längeren Zeitskalen (Mittelfristvorhersagen bis zwei Wochen, Jahreszeitenvorhersagen) und in der Mesoskala (Gewitter, Tornados) weiterhin großen Forschungsbedarf. Hier stößt man auf Grund der nichtlinearen Eigenschaften atmosphärischer Prozesse an die Grenzen der Vorhersagbarkeit der Phänomene. Frühwarnsysteme sind häufig ein effektives Werkzeug zur Vermeidung be-
Abb. 50: Hochwasserkatastrophe in Dresden im August 2002.
Extreme Wetterereignisse • Entwicklung von Ensemble-Vorhersagen • Vorhersagen extremer Wetterereignisse mittels bodenund satellitengebundenen Beobachtungssystemen
Abb. 49: Sturmschäden durch den Winterorkan „Lothar“ 1999.
108
ziehungsweise Reduzierung von (menschlichen und materiellen) Verlusten. Beispielsweise forderte eine Sturmflut 1970 in Bangladesh bei fehlender Vorwarnung 300.000 Menschenleben. Bei einem vergleichbaren Ereignis 1997 konnten sich viele Menschen aufgrund einer Warnung in die mittlerweile errichteten Notunterkünfte retten, so dass nur circa 3000 Todesfälle zu beklagen waren. Daten von 25 Hochwasserereignissen in Europa und den USA (Talsperrenbrüche und Sturzfluten) zeigen, dass sich bei einer Warnzeit größer als 1,5 Stunden Todesfälle praktisch vermeiden lassen. Abschätzungen des ökonomischen Nutzens von hydrometeorologischen Warnsystemen gehen davon aus, dass der ökonomische Nutzen (das heißt verhinderter Schaden) ein Vielfaches der Kosten für Einrichtung und Betrieb übersteigt. Für die verschiedenen hydrologischen und meteorologischen Desastertypen gilt, dass trotz vielfältiger Aktivitäten ein Mangel an operativen Systemen besteht. Schwerpunkt der Arbeiten sollte deshalb die (prototypische) Entwicklung von Frühwarnsystemen sein, die die gesamte Kette vom Monitoring bis zum Management umfassen.
Hochwasser • Fernerkundungstechnologien zur Ableitung hochwasserrelevanter Größen • hochauflösende Niederschlagsmessung • Vorhersage des Niederschlags • Parametrisierung der Abflussbereitschaft des Einzugsgebietes • Schadensabschätzung in Echtzeit • Zuverlässigkeit von Warnungen und Umgang mit Unsicherheiten • Ableitung von Schutzstrategien in Echtzeit • Wirksamkeit von Frühwarnsystemen Sturmfluten Es ist davon auszugehen, dass Sturmfluten und damit die Bedrohung der Küstenregionen in Zukunft zunehmen werden. Aktuelle Simulationen von unterschiedlichen Klimaszenarien mit gekoppelten Klimamodellen sagen stärkere Stürme, damit verbunden höheren Seegang und einen steigenden Meeresspiegel infolge einer Erwärmung der ozeanischen Deckschicht voraus. Hieraus ergibt sich die Notwendigkeit, in der Zukunft neue leistungsfähigere Frühwarnsysteme aufzubauen, die nicht nur so frühzeitig wie möglich warnen, sondern auch dynamisch an die Situation angepasste Gegenmaßnahmen ermöglichen. Derartige Frühwarnsysteme müssen aus einer Vielzahl von Komponenten bestehen, wobei sowohl für einige Bereiche der Modellierung als auch auf dem Gebiet der Messsysteme noch großer Entwicklungsbedarf besteht. Bei den Modellen ist einmal eine Verbesserung der meteorologischen Regionalvorhersagen dringend erforderlich. Zum anderen müssen die derzeitigen Sturmflutmodelle entscheidend verbessert werden. Insbesondere müssen in den Sturmflutmodellen die Wechselwirkungen mit der Topographie (Morphodynamik) und dem Einfluss des Seegangs auf die Wasserstände realistischer beschrieben werden. Bezüglich der Messsysteme muss ein Netzwerk von Monitoringstationen auch außerhalb der Küstenzonen aufgebaut werden, welches eine Online-Ver-
fügbarkeit der Monitoringdaten gewährleistet. In einer zweiten Stufe müssen die Frühwarnsysteme um eine Reaktionskomponente erweitert werden. Diese soll die Einleitung dynamisch an die jeweilige Situation angepasster Gegenmaßnahmen ermöglichen. Die hierfür notwendigen Modelle müssen dann neben den physikalischen Rahmenbedingungen zusätzlich die sozialen, ökonomischen und politischen Entscheidungswege und Strukturen berücksichtigen. Weltraumwetter Die erhöhte und stark variable Strahlungs- und Teilchenstromaktivität während eines Sonnenfleckenmaximums führt in einer hoch technisierten Umwelt zu bedeutenden Schäden. Bei einzelnen Ereignissen sind Schäden im Bereich von mehreren hundert Millionen Dollar aufgetreten. Gefahren durch Weltraumwetter sind: • Stark erhöhte Strahlungsbelastung zum Beispiel bei Piloten, Vielfliegern und Astronauten • Satellitenausfälle durch elektrische Aufladung • Satellitenabstürze durch ausgedehnte Atmosphäre bei hoher solarer und magnetischer Aktivität • Ausfall von elektronischen Einrichtungen • Störungen des Funkverkehrs • Induzierte Ströme in langen Überlandleitungen oder Pipelines
Abb. 51: Mögliche Auswirkungen durch das „Weltraumwetter“.
Dafür sind einerseits die Strahlungs- und Teilchenströme direkt, andererseits das stark schwankende Magnetfeld der Erde bei einem magnetischen Sturm indirekt verantwortlich. Da diese Stürme durch Wechselwirkung solarer Teilchenströme mit der hohen Atmosphäre hervorgerufen werden und daher erst 2-3 Tage nach dem solaren Ereignis auftreten, besteht die Möglichkeit, durch ein effizientes Frühwarnsystem Schäden durch Magnetstürme zu minimieren. Ein geeignetes Frühwarnsystem muss eine kombinierte Beobachtung der solaren und magnetischen Aktivität, vom Satelliten und vom Boden aus beinhalten. Parallel dazu ist eine Simulation der Wechselwirkungen zwischen solaren Strahlungs- und Teilchenflüssen, der Magnetosphäre der Erde und der Ionosphäre notwendig.
Für ein Pilotprojekt kann man auf existierende Anlagen und Observatorien zurückgreifen. Zur Abdeckung des Raumsegments eignen sich besonders die Messungen des Satelliten CHAMP, aus denen die wichtigsten Parameter der oberen Atmosphäre abgeleitet werden können.
Feuer (Vegetationsbrände) Je nach Zustand der Vegetation, der Wetterbedingungen und der Einbettung eines Ökosystems in die Kulturlandschaft beziehungsweise der wirtschaftlichen Nutzbarkeit der Vegetation können unkontrollierte Feuer (Wildfeuer) Intensitäten und Ausmaße annehmen, die hohe wirtschaftliche Schäden anrichten, Auswirkungen auf die öffentliche Gesundheit haben (Rauchbelastung) oder sekundäre Schadenereignisse (Hangrutsch, Erosion, Fluten) auslösen. In Hinblick auf die Verknappung natürlicher Waldressourcen beziehungsweise der Bedrohung der Funktion von Vegetationssystemen durch multiplen Stress (erhöhter Landnutzungsdruck, extreme Klimaereignisse, industrielle Emissionen), auch in Hinblick auf regionale bis globale Klimaveränderungen, ist eine Erhöhung der Vulnerabilität der Vegetation beziehungsweise der Gesellschaft gegenüber unkontrollierten Feuern zu verzeichnen beziehungsweise abzusehen. Die Emission klimawirksamer Spurengase aus Vegetationsverbrennung verschafft dem Phänomen Feuer einen zusätzlichen Stellenwert in seiner Beurteilung als Umweltfaktor. Da der größte Teil kritischer Feuerereignisse durch den Menschen ausgelöst wird, spielen für das Auftreten beziehungsweise die Vorhersagbarkeit des Auftretens von Wildfeuern sozioökonomische, kulturelle und auch politische Parameter eine Rolle. Die kritischen Räume liegen in den Entwicklungsländern, die über beschränkte oder keine Kapazitäten in der Feuervorhersage verfügen, und in den wenig erschlossenen Naturräumen Eurasiens (Russische Föderation), Nordamerikas oder Steppen und Savannengebiete mit geringer Dichte an Infrastrukturen. Zu den wichtigsten Defizitbereichen auf dem Gebiet der Frühwarnung von Vegetationsbränden gehören: • Mangel an Flächendeckung von Feuer-Monitoring und Frühwarnsystemen (weltweit) • Keine Förderung der Entwicklung beziehungsweise kein Betrieb angewandter Einrichtungen an der Schnittstelle zwischen Wissenschaft, Praxis (fire management), Politik, Verwaltung, Betroffene, insbesondere auf globaler Ebene • Teilweise noch unbekannte Entscheidungskriterien beziehungsweise decision-support systems, die erlauben, eine Aussage über den Feuer-Impakt und damit über die zu ergreifenden Maßnahmen zu machen (zum Beispiel die Alternativen „brennen lassen“ oder „unter Kontrolle bringen“). • Defizite in der technischen Weiterentwicklung, insbesondere auf dem Gebiet der Fernerkundung (hier in Deutschland: Begleitforschung des DLR Kleinsatelliten BIRD beziehungsweise des geplanten Feuer-Sensors FOCUS auf ISS).
109
Mit dem Aufbau eines Systems zur systematischen Überwachung von Feuer und den Umwelt- und Gesellschaftsfaktoren, die das Vorkommen beziehungsweise die Anwendung von Feuer und dessen Auswirkungen bestimmen, wird Neuland an einer Schnittstelle zwischen verschiedenen Wissenschaftsdisziplinen und der Anwendung beziehungsweise Politikentwicklung betreten. Erforderlich ist, dass ein globales Frühwarnungs- und Monitoring-Produkt zügig und realistisch aufgebaut wird.
110
Informationssysteme im Erdmanagement
G
eodaten sind ein wesentlicher Teil des in der modernen Informations- und Kommunikationsgesellschaft vorhandenen Wissens. Sie werden auf allen Ebenen des öffentlichen Lebens genutzt und sind vielfach Grundlage des planerischen Handelns. Ihre Verfügbarkeit ist maßgebliche Voraussetzung für Standort- und Investitionsentscheidungen. Geoinformationen bilden damit ein Wirtschaftsgut ersten Ranges und können wesentlich zum ökonomischen Wachstum beitragen. Der Deutsche Bundestag hat in seiner Entschließung vom 15. Februar 2001 daher die „Gewinnung, Verarbeitung, Verbreitung und Nutzung von Geoinformationen“ als ein „zentrales Element der modernen Informationsgesellschaft“ bezeichnet. Gegenwärtig ist ein effizienter Umgang mit Geoinformationen in Deutschland jedoch nur eingeschränkt, oder mit erheblichen Kostenaufwand möglich. Wesentliche Ursachen hierfür sind der Mangel an einheitlichen Datenstrukturen, Formaten und Spezifikationen, sowie veraltete Informationstechnologien. Zur Leistungssteigerung des Geoinformationswesens sind daher nicht nur eine verbesserte Koordinierung und die Optimierung administrativer und technisch organisatorischer Abläufe notwendig. Ein zentraler Bestandteil der Bemühungen, die Nutzung von Geoinformationen zu stärken, ist der Bereich Forschung und Entwicklung. Das FuE-Programm GEOTECHNOLOGIEN mit seinen grundlagen- und anwendungsorientierten Themenfeldern bietet dafür ein geeignetes wissenschaftliches und technologisches Potenzial. Die Geoinformationstechnologie als Querschnittstechnologie kann durch geeignete Informations- und Kommunikations-Infrastrukturen helfen, die wissenschaftlichen und technischen Potenziale verfügbar zu machen und zu dokumentieren. Sie schafft innovative Netzwerke innerhalb der Wissenschaft, aber auch zwischen Wissenschaft und Wirtschaft. Nur so ist der Zugang zu aktuellen Ergebnissen von Forschung und Entwicklung und zu Markt-, Produkt- und Wirtschaftsdaten gewährleistet. Grundlagenwissen und innovative Basistechnologien lassen sich somit in perspektivreichen Anwendungsfeldern und zum volkswirtschaftlichen Nutzen umsetzen.
111
Themenschwerpunkt: „Informationssysteme im Erdmanagement“. Förderstatus BMBF: Förderung von sechs Verbundvorhaben. Fördervolumen: Circa 4 Millionen Euro für eine 3-jährige Förderphase (2002-2004). Förderstatus DFG: Zur Zeit keine Förderung durch die DFG. Ziel: Schaffung der wissenschaftlichen und technologischen Grundlagen für eine effizientere Nutzung großer heterogener Datenbestände. Sicherstellung ihrer langfristigen Verfügbarkeit in Wissenschaft, Wirtschaft und Verwaltung. Beteiligte Institutionen: Interdisziplinäre Beteiligung von Universitäten, außeruniversitären Forschungseinrichtungen und KMUs.
Die offene Geodaten-Infrastruktur
W
112
ie selbstverständlich nutzen wir Infra-strukturen als Bestandteil unseres alltägli-chen Lebens. Infrastrukturen versorgen uns mit Wasser, Transportmitteln, Telekommunikation oder mit Elektrizität. Hinter allen Beispielen verbergen sich komplexe, hochorganisierte Technologien, die von Menschen betrieben werden, die diese Infrastruktur gemäß getroffener Vereinbarungen, Regeln und Rechtsvorschriften betreiben. Der Aufbau von Geodaten-Infrastrukturen ist ein aktuelles Thema, dem in Politik, Wirtschaft und Wissenschaft zunehmend Bedeutung zugemessen wird. Geoinformationen sind Informationen mit einem definierten Raumbezug und basieren auf Erdbeobachtungsdaten (Fernerkundung, Satellitendaten), Umweltdaten, topographischen oder thematischen Karten, sowie Daten über physikalische und chemische Zustände der Geo-, Hydro-, Kryo- und Atmosphäre. Bei circa 80 % aller Entscheidungen im öffentlichen und privatwirtschaftlichen Leben sind raumbezogene Informationen, also Geodaten, wesentlich. Der Aufbau, die Verwaltung und Nutzung von Geoinformationen, sowie die damit verbundenen Dienstleistungen, haben bereits heute eine große wirtschaftliche Bedeutung. So liegt der Umsatz der Geoinformationswirtschaft in Deutschland angeblich bei circa 100 Millionen Euro; das Marktpotenzial aber wird auf fast 7 Milliarden Euro geschätzt. Damit gehört das Geoinforationswesen in Deutschland in Zukunft zu den wichtigsten Anbietern innovativer Arbeitsplätze. Einschlägige Studien gehen davon aus, dass auch
auf europäischer Ebene große Wachstumschancen gegeben sind. In den USA sehen die Prognosen noch optimistischer aus. Allein durch den Einsatz von GPS-Technologie wurden dort, in den vorangegangenen Jahren circa 100.000 Arbeitsplätze geschaffen. Der Aufbau von Geodaten-Infrastrukturen spiegelt sich in einer Vielzahl von Aktivitäten wider, die auf internationaler, europäischer aber auch auf nationaler Ebene ablaufen. Gegenstand sind vorrangig geographische Daten, die Geobasisdaten, welche zum Beispiel Topographie, digitale Geländemodelle, oder Katasterdaten umfassen. Ein wichtiges Signal setzt zum Beispiel das EU-Projekt GEIXS (Geological Electronic Information Exchange System), das von den europäischen Geologischen Diensten initiiert wurde. Hier geht es darum, die geowissenschaftlichen Daten in einer Geodaten-Infrastruktur verfügbar zu machen. Die im folgenden vorgeschlagenen Projekte „Visual Earth“ und das „Virtual Crust Lab“ greifen diesen Trend auf und sind als Beiträge der Geowissenschaften zur entstehenden globalen Geodaten-Infrastruktur zu sehen. Vom Arbeitsplatz eines modernen Wissenschaftlers betrachtet, präsentiert sich die angestrebte Infrastruktur nicht wie ein Verbund verteilter Systeme, sondern wie ein einziges (virtuelles) Informationssystem, das ihm einen unmittelbaren Zugriff auf relevante Informationen über Projekte, beteiligte Organisationen oder verfügbare Daten ermöglicht. Auch die zur Auswertung und Visualisierung von Daten notwendigen Softwaretools können, wenn sie nicht auf dem lokalen System vorhanden sind, über die Infrastruktur angesprochen und genutzt werden. Das Arbeiten mit der Geodaten-Infrastruktur kann aus Sicht des Nutzers ohne Wissen um die exakte Lokation der bereitgestellten Dienste und Datenbestände erfolgen. Lediglich bei der Nutzung von Informationen und Dienstleistungen, für die besondere Zugriffsregelungen gelten, wird diese virtuelle Transparenz durchbrochen. Am Arbeitsplatz des Wissenschaftlers sind alle relevanten Funktionen zum Auffinden und zur Nutzung von Geodaten vorhanden. Geodaten kommen aus der „Netzwerk-Steckdose“. Der Aufbau und die gezielte Entwicklung von Infrastrukturen sind ein komplexes Problem, das durch eine Vielzahl von Faktoren gesteuert und beeinflusst wird: • Technologische Entwicklung in Hinblick auf Leistungsfähigkeit von Computern und Netzwerken • Software-Werkzeuge zum Aufbau und zur Nutzung der Geodaten-Infrastruktur • Standards zur Repräsentation und zum Austausch von Daten, aber auch für die Struktur der Daten-Dokumentation • „Policies“ zur Definition strategischer Ziele und Rahmenbedingungen, zum Beispiel Regeln, Richtlinien und Gesetze zum zielgerichteten Aufbau und Betrieb der Infrastruktur • Rechtsfragen, wie Copyright von Daten, Haftung bei mangelhaften Daten • Qualität und Dokumentation der Geodaten, sowie • Datenangebot und -nachfrage
Umsetzung: Kompetenznetz Geoinformatik Für das FuE-Programm GEOTECHNOLOGIEN wird vorgeschlagen, den Aufbau einer Geodaten-Infrastruktur durch ein wissenschaftliches, projektorientiertes Dienstleistungsangebot umzusetzen. Dieses Angebot umfasst ein breites Spektrum von Diensten, wie zum Beispiel das Netzwerk- und Massendatenmanagement, die Erfassung und Verwaltung von Projektdaten, der Entwurf und die Implementierung von SoftwareUmgebungen zur Modellierung und Simulation, aber auch das Informationsmanagement, welches die Gestaltung und Optimierung von Informationsflüssen zum Ziel hat. Bei der inhaltlichen Breite des Programmkonzepts sind erhebliche Herausforderungen an die Geoinformatik zu erwarten, die ohne Verzögerung der wissenschaftlichen Projektarbeit in Software-Systeme umgesetzt werden müssen. Als Träger dieses Dienstleistungsangebots fungiert ein Kompetenznetz Geoinformatik. Das KompetenzNetz schafft die organisatorischen Rahmenbedingungen zum Aufbau einer offenen geowissenschaftlichen Informations-Infrastruktur. Folgende Aufgabenbereiche lassen sich unterscheiden: • die Unterstützung der einzelnen Projekte bei der Konzeption und dem Aufbau von projektspezifischen Informationssystemen, • die massive Entwicklung von innovativen Systemlösungen (zum Beispiel Visual Earth, Virtual Crust Lab) und • der Transfer von Innovationen in marktfähige Produkte.
Die Bearbeitung dieser Aufgaben im Rahmen von Projekten spielt eine entscheidende konzeptionelle Rolle. Um die Aufgaben erfolgreich umzusetzen, organisiert sich das Kompetenznetz in zwei Gruppen, das Consulting- und das Software-Team: • Das Consulting-Team berät Projektteilnehmer und übernimmt das Management von Projekten zum Aufbau der Geodaten-Infrastruktur. Daneben müssen Richtlinien und Empfehlungen für den Aufbau von Datenbeständen, aber auch die Verteilung und Nutzung von Geodaten ausgearbeitet werden, die mit nationalen, europäischen und internationalen Entwicklungen abzustimmen sind. Es ist ein rechtlicher Rahmen zur Sicherung des Copyrights und zum Schutz vor Missbrauch speziell für wissenschaftliche Geodaten zu schaffen. Darüber hinaus sind in der wissenschaftlichen Welt Rahmenbedingungen zu schaffen, damit die Publikation von Daten sich gegenüber den klassischen Publikationsformen, wie zum Beispiel Zeitschriftenartikeln, etablieren kann. Eine weitere Aufgabe des Consulting-Teams ist die Organisation des Innovationstransfers. Prototypische Softwarelösungen mit einem hohen Marktpotenzial sollen im Rahmen dieses Prozesses in marktfähige Produkte umgesetzt werden. • Das Software-Team ist Know-how-Träger auf dem Gebiet Entwicklung, Erprobung und Einführung von Software-Komponenten zum Aufbau von Geodaten-Infrastrukturen. Zentrale Themen sind die Wiederverwendung von Software und Modelle der Softwareentwicklung. So können die Voraussetzung geschaffen werden, qualitativ hochwertige Software in einem definierbaren, günstigen Kostenrahmen mit einer akzeptablen Geschwindigkeit zu entwickeln.
113
Abb. 52: Beispiel für innovative Systemlösung.
114
Eine wichtige Aufgabe des Software-Teams ist der Aufbau und Betrieb einer projektinternen Infrastruktur, die auf der Basis von Internet-Technologien allen Teilnehmern des geplanten Programms als Informations-und Kommunikationsplattform zur Verfügung steht. Sie bietet den Teilnehmern Werkzeuge und Dienste für die Gruppenarbeit, die gegenseitige Information und die Verwaltung von Projekt-Dokumentationen. Das Kompetenznetz ist eine virtuelle Organisation, die sich dynamisch an die Anforderungen anpasst. Neben wenigen zentralen Mitarbeitern besteht das Kompetenznetz aus einem dynamischen, dezentralen Mitarbeiterpool, der über die projektinterne Infrastruktur bei der Lösung spezieller Projektaufgaben vernetzt zusammenarbeitet. Hier sind übergreifende Netzwerke zwischen GEOTECHNOLOGIEN-Projekten und Hochschulen, Ämtern, Forschungseinrichtungen und Firmen anzustreben. Die Aufgaben des Kompetenz-Zentrums liegen in der Planung und Durchführung von Integrations- und FuEProjekten: Im Rahmen von Integrations-Projekten werden wissenschaftliche Projekte beim Aufbau eines projektinternen Daten- und Informations-Managements unterstützt. Im Zentrum stehen Systeme zur Erfassung und Visualisierung von Daten (Labor- oder Bohrungsinformationssysteme), aber auch der Aufbau von Clearinghouse-Systemen, die einen vollständigen Überblick über das Projekt, seinen Ablauf sowie eine Dokumentation der Datenbestände enthalten. Die Systeme werden in erster Linie aus vorhandenen, standardisierten Software-Komponenten zusammengestellt. Auch die Aufbereitung und Dokumentation wichtiger Altdatenbestände in eine nachnutzbare Form, sowie die Integration und Harmonisierung wichtiger externer Datenbestände wird im Rahmen von Integrations-Projekten durchgeführt. Die dadurch verursachten Kosten können allerdings erhebliche Ausmaße erreichen. In neuen Einsatzfeldern, die nicht mit Standard-Software abgedeckt werden können, sind prototypische Software-Module im Rahmen von Forschungs- und Entwicklungs-Projekten (FuE) zu entwickeln. Dazu werden den Anforderungen entsprechende Teams zusammengestellt, die eine rasche Umsetzung sicherstellen. Lösungen können dann in der praktischen Anwendung erprobt und validiert werden. Im Fall einer positiven Bewertung des Marktpotenzials kann der Prototyp in ein marktfähiges Produkt überführt werden.
Perspektiven Der heutige Einsatz von Informationstechnologie ist allerdings noch durch organisatorische und technische Hemmnisse gekennzeichnet. Die Erfassung von Daten ist vor allem durch den Einsatz computergestützter Messgeräte sehr weit fortgeschritten und enorme Mengen von Daten werden produziert. Im Vergleich dazu spielt die Integration und Nutzung der Daten über die Grenzen der Disziplinen und Organisationen hinweg gegenwärtig noch eine untergeordnete Rolle. In vielen Fäl-
len scheitert die Wieder- und Weiterverwendung der Daten daran, dass ihre Existenz den potenziellen lnteressenten und Anwendern nicht bekannt ist, weil die Daten in einer Vielzahl isolierter Einzelsysteme gespeichert sind. Datenbestände bleiben ungenutzt, da nur ein kleiner Kreis von Spezialisten Kenntnis von ihrer Existenz hat. Im technischen Bereich behindern inkompatible Ansätze der Speicherung und Verwaltung die Nutzung von Geodaten. Obwohl prinzipiell verfügbar, können die Daten vielfach nicht genutzt werden, weil technische Fragen des Austausches beziehungsweise der Verarbeitung von Daten in Fremdsystemen nicht gelöst sind. Auch die Preispolitik und Fragen von Nutzungsund Urheberechten haben einen wesentlichen Einfluss auf die Entwicklung. Diese Hemmnisse erschweren die Zusammenarbeit im wissenschaftlichen Bereich, aber besonders auch den Transfer von Informationen und Daten zwischen Wissenschaft, Wirtschaft und Behörden. Sie erschweren den Aufbau von Infrastrukturen zur Kommunikation und zum Austausch von Informationen, die für Planungen und Entscheidungen im Geo- und Umweltmanagement notwendig sind.
Forschungsprojekte
Visual Earth Das Management des vorhandenen Geo-Wissens und seine Verfügbarkeit für andere Problemstellungen machen ein neues, umfassendes multimediales System zum Transfer und zur Nutzung erforderlich. Das System ermöglicht Experten, Politikern und Bürgern eine umfassende Information und stellt die vielfältigen Beiträge der Geowissenschaften und ihre Relevanz dar. Es geht dabei um die Entwicklung eines strukturierten Informationsund Wissensangebots, das unter besonderer Berücksichtigung didaktischer und methodischer Gesichtspunkte aufbereitet werden muss. Die Ausrichtung auf selbstorganisiertes Lernen ist besonders dazu geeignet, den Wissenstransfer und damit Innovationsprozesse zu unterstützen. Erstrebenswert erscheint auch die Beteiligung beim Aufbau einer virtuellen Hochschule mit einem speziellen Ausbildungs- und Trainingsprogramm. Zur Darstellung des Wissens über die Erde ist ein System besonders geeignet, nämlich ein Modell der Erde selbst. In diesem Bezugssystem wird das gegenwärtige Wissen von Prozessen in der Geo-, Hydro-, Atmo- und Biosphäre zusammengefasst und in einer multimedialen, visuellen Form dargestellt. Wesentliches Merkmal des „Visual Earth“-Systems ist die Möglichkeit, von der globalen Betrachtung des Systems Erde auf submikroskopische Bereiche zu zoomen. Die Basis des „Visual Earth“-Systems bildet ein Netz von sogenannten Clearinghouse-Systemen (= Handelsplätze für Daten im Internet), Datenbanken und eine elektronische Bibliothek. Clearinghouse-Systeme unterstützen speziell das Auffinden von Informationen und
stellen sich einem Kernproblem der Informationsgesellschaft, nämlich der Vermittlung von relevanten Informationen. Clearinghouse-Systeme nutzen dazu die Beschreibung und Dokumentation der im System verfügbaren Daten, die in strukturierter Form als Metadaten vorliegen. Die Daten des „Visual Earth“-Systems sind in verteilten Datenbanken gespeichert. Die elektronische Bibliothek ist ein Verbund von Bibliotheken über das Internet. Die virtuelle Bibliothek „Geowissenschaften“ ermöglicht den Wissenschaftlern einen umfassenden Überblick über Artikel, Zeitschriften und Bücher sowie einen effizienten Zugang zur „grauen“ und schwer beschaffbaren Literatur. Dazu gehören wissenschaftlich-technische Reports, Dissertationen, Habilitationen und ausgewählte Diplomarbeiten sowie Vorträge und Vorlesungsskripte. Wichtiger Dienst einer virtuellen Bibliothek ist die elektronische Lieferung von Dokumenten. Darüber hinaus ist die Schaffung eines themenübergreifenden Internetportals zu geowissenschaftlichen Daten notwendig. Hierunter sollten sich gewisse Absichten, die auch im Themenschwerpunkt Informationssysteme schon beinhaltet waren, jedoch nicht zur Förderung kamen, aufgegriffen werden. Gedacht ist an ein den heutigen Standards und Technologien entsprechendes Portal, über das auf die großen geowissenschaftlichen Datenbanken via Metainformation zugegriffen werden kann. Hierdurch sollen der weltweiten wissenschaftlichen Community die Daten verfügbar gemacht werden, um disziplinenübergreifend Forschungen zu ermöglichen.
Virtual Crust Lab Das „Virtual Crust Lab“ ist ein Projekt mit dem Ziel, ein offenes System zur Modellierung und Simulation von geowissenschaftlichen Prozessen und Strukturen aufzubauen. Die Problemstellungen in Wissenschaft und Forschung, Technik und Gesellschaft verlangen nach immer umfassenderen und genaueren Modellbildungen für komplexe Systeme und Problemlösungen. In Verbindung mit der Modellierung und den Innovationen der Informationstechnologie entwickelt sich die Computersimulation zur Darstellung dynamischer Vorgänge immer mehr zu einem wichtigen Standbein der wissenschaftlichen Arbeit. In der Industrie sind der computergestützte Entwurf und die Simulation ein unverzichtbares Verfahren der Produktentwicklung und des unternehmerischen Planens. Komplette Modelle von Automobilen werden in CAD-Systemen entworfen, auf einem virtuellen Fließband zusammengebaut und in ihrem aerodynamischen und mechanischen Verhalten getestet, bevor die eigentliche Fabrikation beginnt. Die Modellierung/Simulation hat in den Geowissenschaften mittlerweile eine vergleichbare Bedeutung: Viele geowissenschaftlich relevante Strukturen und Prozesse können nicht im Experiment untersucht werden. Sie entziehen sich einer direkten Untersuchung durch ihre Unzugänglichkeit, die räumlichen Dimensionen
oder eine extreme zeitliche Dauer. Durch diese Situation ist die Bedeutung von Modellierung und Simulation wesentlich größer als zum Beispiel in anderen Wissenschaften wie der Physik und der Chemie. Modellierung und Simulation werden immer stärker zu einem zentralen Werkzeug der Geowissenschaften. Das „Virtual Crust Lab“ ist eine offene Systemumgebung zur Modellierung und Simulation von geowissenschaftlichen Problemstellungen. Der Modellierungsprozess kann in einem virtuellen 3-D-Raum, zum Beispiel einem ausgewählten Krustensegment, ablaufen. Die Wissenschaftler können sich innerhalb des virtuellen Raums bewegen. Nach der Darstellung von Bohrlöchern werden Schritt für Schritt Ergebnisse und für die Problemstellung relevante Untersuchungsverfahren eingeblendet und bewertet. Die Lage und Eigenschaft eines seismischen Reflektors und der Schnittbereich mit dem dreidimensional dargestellten Bohrloch können anhand der Bohrlochmessungen und der geologischen Detailaufnahme direkt untersucht werden. Auf diese Weise kann iterativ das Raummodell eines Objektes konstruiert werden, das dann zur Simulation von Prozessen genutzt wird. „Virtual Crust Lab“ dokumentiert den Ablauf und die Einzelschritte des Modellierungsprozesses in Form eines Workflow-Diagramms. Schritte zurück oder zum Ausgangspunkt sind möglich, so dass alternative Wege beschritten werden können. Ein weiteres Einsatzbeispiel mit einer ganz anderen Zeitauflösung und Skalierung ist zum Beispiel die Simulation von Fluidsystemen, die eine große Bedeutung für Pedologie, Hydrologie, Klimatologie, Ökonomie und Ökologie besitzt. Die Ergebnisse von prognostischen Simulationen können mit Daten validiert werden, die zum Beispiel von satelliten- oder bodengestützten Umwelt-Monitoringsystemen registriert wurden. Auf diese Weise können Rückkopplungsmechanismen etabliert werden, die ihrerseits wieder in die Modellierung und Simulation einfließen.
115
116
Globale Klimaänderungen – Ursachen und Auswirkungen
F
ür eine objektive Beurteilung des derzeitigen Klimageschehens und der zu erwartenden Entwicklung ist es wichtig, die natürlichen Klimavariationen vor dem Hintergrund menschlicher Einwirkungen und ihrer Folgen zu erkennen. So ist der Nordatlantik als Klimamaschine und Warmwasserheizung speziell für Europa von außerordentlicher Bedeutung. Auch das Auftreten des El-Niño-Phänomens mit seinen Einflüssen auf die Bildung von Wirbelstürmen und die Monsunverstärkung oder -abschwächung sind spektakuläre kurzzeitige Ereignisse im Bewusstsein der Menschheit, die auf die hohe Variabilität und Sensitivität des Klimasystems hinweisen. Hierzu gehören auch die Beobachtungen von Meeresspiegelanstieg und der Verstärkungseffekt der Vegetation auf die Feuchtigkeitsbildung. Verschiedene Modelle führen zu der Annahme, dass eine anthropogene Zunahme der Treibhausgase seit einigen Jahrzehnten einen verstärkten Einfluss auf das Klima ausübt. Dies äußert sich möglicherweise in der beobachteten Zunahme von klimatischen Naturkatastrophen, wie Überschwemmungen, Stürmen, Unwettern, Dürren, Hitze- und Kälteperioden sowie ihren unmittelbaren Folgen (Deichbrüche, Sturzfluten, Bergrutsche) und mittelbaren Folgen (volkswirtschaftliche Schäden). Die moderne Industriegesellschaft führt ein Großexperiment im Klimasystem der Erde durch. Der Ausgang dieses Experimentes ist ungewiss, deshalb sind eingehende Vorsorgeuntersuchungen zu den Änderungen im Lang- (> 10.000 Jahre), Mittel- (10.000 bis 100 Jahre) und Kurzzeitklima (< 100 Jahre) in Zeit und Raum notwendig. Klimaforschung bildet deshalb eine gesellschaftlich relevante und unabdingbare Vorsorge (unter Einschluss aller Datenarchive und Messwerte bis hin zur Modellbildung) zur Erkennung der Wirkungsweise des Klimasystems, um das notwendige Handlungswissen zu erhalten. Es ist die Frage der möglichen ökologischen Selbstgefährdung unserer Gesellschaft zu beantworten.
117
Themenschwerpunkt: „Globale Klimaänderungen – Ursachen und Auswirkungen.“ Förderstatus BMBF: Förderung von 12 Vorhaben unter dem Dach von DEKLIM. Förderstatus DFG: Zur Zeit keine Förderung durch die DFG. Ziel: Rekonstruktion des Paläoklimas. Beteiligte Institutionen: Universitäten und außeruniversitäre Forschungseinrichtungen.
Stand der Forschung
E
s ist mittlerweile unbestritten, dass natürliche zyklische Klimavariationen existieren. Dazu zählen kurzfristige El Niño- und Sonnenfleckenzyklen, der mittelfristige 1500 Jahres Dansgaard-Oeschger Zyklus, langfristige, durch orbitale Parameter der Erde gesteuerte Milankovich-Zyklen und ultralangfristige Variationen, die mit der Koevolution von Litho- und Biosphäre einhergehen. Der Übergang von einem Zustand des Klimasystems in einen anderen kann extrem kurzfristig sein und in wenigen Jahren bis Jahrzehnten erfolgen.
118
Abb. 53: Globale Klimazonen.
Die natürliche Entwicklung des Klimas über erdgeschichtliche Perioden kann in mehrere zyklische Phasen gegliedert werden. Das sogenannte „Treibhaus“-Klimasystem, zum Beispiel in der Kreidezeit vor 100 Millionen Jahren, umfasste Phasen, in denen es keine polaren Vereisungen, sondern höhere globale Mitteltemperaturen und hohe atmosphärische CO2-Konzentrationen gab. Dem steht das „Eishaus“-Klimasystem mit polaren oder bipolaren Vereisungen, niedrigen globalen Temperaturen und CO2-Gehalten gegenüber, wie es speziell seit etwa 2,7 Millionen Jahren, dem Beginn des insgesamt circa 50 Kaltzeiten umfassenden Eiszeitalters, vorherrscht. Diese ultralangen Schwankungen sind nicht linear, das heißt, schon kleine Änderungen im System können große Wirkungen zur Folge haben. Ursache dieser Wechsel ist vermutlich die Isolation der Pole vom ozeanischen Wärmeaustauschsystem, eine Folge der plattentektonischen Kontinentalverschiebung. Tektonisch verursachte Gebirgsbildung wird zusätzlich für Klimaschwankungen verantwortlich gemacht, wie zum Beispiel die Hebung von Tibet, da sie die globalen atmosphärischen und ozeanischen Zirkulationsmuster verändern kann; ebenso die Öffnung und Schließung von Meeresstraßen, wie zum Beispiel die Schließung der Straße von Panama vor circa 4,5 Millionen Jahren. Der „Eishaus“-Zustand – wir leben heute in einer nur knapp über 10.000 Jahre dauernden Warmphase (Interglazial) des Eiszeitalters – wird zur Zeit am besten verstanden, stellt jedoch im erdgeschichtlichen Rahmen eine Ausnahmesituation dar. Charakteristisch ist die langfristige Periodizität von Kalt- und Warmzeiten. Erst der Nachweis von Orbitalzyklen an Sauerstoffisotopenkurven von marinen Sedimenten und Eiskernprofilen erbrachte den grundlegenden Beweis für die schon vorher vermutete Steuerung dieser Kalt- und Warmzeiten durch die Erdbahnparameter. Vor- und Nacheileffekte im Be-
reich der Milankovich-Frequenzen lassen Rückschlüsse auf die Funktionsweise des Klimasystems zu. Der Wechsel von der letzten Vereisungsphase zur gegenwärtigen Warmzeit ist Gegenstand zahlreicher Untersuchungen, da er innerhalb von 3.000 Jahren mit mehreren Fluktuationen zwischen warm und kalt stattfand. Der Übergang zwischen den einzelnen Phasen erfolgte innerhalb weniger Dekaden. Mittelfristige periodische Schwankungen wurden vor allem für den letzten Glazialzyklus seit circa 50.000 Jahren in marinen Ablagerungen und den Archiven der Eiskerne nachgewiesen. Ihre Hauptperiodizität wird heute mit 1.500 Jahren angegeben. Da diese Frequenz zu kurz für geologische und zu lang für atmosphärische Prozesse ist, wird sie auf Veränderungen der thermohalinen ozeanischen Zirkulation, vor allem durch Schmelz- beziehungsweise Süßwasserzufuhr in Folge von Eisbergausbrüchen, zurückgeführt. Die Übergänge dauerten auch hier nur wenige Dekaden. Den mittel- und langfristigen Periodizitäten sind zusätzlich noch kurzfristige Klimaschwankungen überlagert, deren Periodizitäten unter anderem den Schwankungen der Sonnenfleckenaktivität oder anderen astronomischen Einflüssen entsprechen. Diese Variationen sind aus zeitlich hoch auflösenden geologischen und biologischen Archiven (Eiskerne, Sedimente mit Jahresschichtung, Bäume, Korallen, Höhlensinter) sowie aus historischen Archiven bekannt. El Niño-Periodizitäten, die eine Art Aufschaukelungsprozeß widerspiegeln, bewegen sich im Bereich von 3 bis 6 Jahren. Zusätzlich treten episodische vulkanische Aktivitäten hinzu, wie zum Beispiel der Ausbruch des Pinatubo, die das Klima über Zeitspannen von wenigen Jahren beeinflussen können. Sowohl klimatische Extremereignisse als auch kurz- und mittelfristige Klimaschwankungen hatten gravierende Auswirkungen auf die Kultur – und Menschheitsgeschichte während der letzten Jahrtausende. Statistische Untersuchungen auf Grundlage meteorologischer Messdaten zeigen, dass das anthropogene Klimasignal, insbesondere der Treibhauseffekt, eine wesentliche Rolle in der zukünftigen Klimaentwicklung der Erde spielt. Die Aussagen dieser statistischen Analysen werden untermauert durch die Ergebnisse, die mit physikalischen Klimamodellen erzielt worden sind. Da aber die natürliche Variabilität des Klimasystems auf allen Zeitskalen vorhanden und bislang nur unzureichend verstanden ist, müssen die Modellergebnisse als Trendaussage für die Zukunft mit großer Vorsicht interpretiert werden. Es ist daher notwendig, unsere Verständnislücken hinsichtlich der natürlichen Klimavariabilität auf den speziell für den Menschen relevanten dekadischen bis subdekadischen Zeitskalen zu schliessen. Dies erfordert eine präzise Rekonstruktion der großen ozeanatmosphären Oszillationen während der letzten Jahrtausende. Eiskerne Das wohl bedeutsamste Ergebnis der Eiskernforschung der letzten Jahre war der Nachweis aus Grönlandbohrungen, dass Klimaschwankungen außerordent-
lich schnell ablaufen können (Änderungen der Jahresmitteltemperatur über Grönland von etwa 10°C innerhalb von 20 Jahren bei gleichzeitiger Änderung der Staubbelastung der Atmosphäre). Ferner zeigen die Amplituden, daß der mittlere Temperaturunterschied in der Nordhemisphäre zwischen Glazial und Interglazial etwa doppelt so groß war, wie bislang angenommen. Diese zunächst im grönländischen Eis beobachteten „Dansgaard-Oeschger“ Ereignisse sowie die rapiden und großen Klimavariationen während des Überangs Glazial-Holozän sind mittlerweile global nachgewiesen, unter anderem als massive Variabilität im hydrologischen Kreislauf der Tropen und Subtropen. Daraus ergeben sich eine Reihe von Fragen, deren Beantwortung für die Prognose künftiger Klimaentwicklungen von entscheidender Bedeutung ist und helfen kann, den anthropogenen Einfluss auf das Klima zu quantifizieren: • Was bewirkte ursächlich die rapiden Klimawechsel während des Glazials (zum Beispiel DansgaardOeschger Zyklen)? Wo und wodurch werden schnelle Klimaänderungen ausgelöst und wie werden sie amplifiziert? • Wie sind die Nord- und Südhemisphäre gekoppelt? Welche Rolle spielen die Tropen? • Sind sie Besonderheiten des letzten glazialen Zyklus oder gab es sie auch in früheren Kaltzeiten? • Verlaufen die Wechsel zwischen Kalt- und Warmzeiten immer in derselben Weise oder gibt es Unterschiede? • Ist das relativ stabile Klima der letzten 10.000 Jahre die Ausnahme oder die Regel für eine Warmzeit? Die Eiskernarchive liefern einzigartige Datensätze zur Zusammensetzung der Atmosphäre, der Klimavariabilität und der langzeitlichen Wechselwirkung zwischen Klima und Eismassen. Ein neues Arbeitsfeld der Eiskernanalyse hat sich in den marinen und terrestrischen Permafrostregionen eröffnet. Hier steht die Entwicklung noch am Anfang. Für die Eiskernanalyse stehen eine Vielzahl von gut eingeführten Methoden zur Verfügung, die routinemäßig eingesetzt werden. In den letzten Jahren wurde ein wesentlicher Teil der in den Archiven gespeicherten und für die Erfassung von Klimaänderungen relevanten Parameter zuverlässig gemessen. Allerdings sind nur die anorganischen Spurenstoffe im Eis analysiert worden, während wichtige Isotopenverhältnisse wie δ 13C am CO2, sowie die organischen Verbindungen oder auch mikrobielle Einschlüsse aus Gründen unzureichender Analysetechniken weitgehend unbearbeitet sind. Hier ergibt sich ein weitreichendes Feld für zukünftige Arbeiten mit noch zu entwickelnden Methoden. Meeressedimente Die Sedimente des Meeresbodens bilden die zeitlich längsten kontinuierlichen Archive des Paläoklimas und spiegeln im wesentlichen die Verhältnisse im ozeanischen Umfeld wieder. Damit bilden sie ein Fundament der Paläoklimaforschung, weil sie neben den kurz- und
119
120
mittelfristigen auch die langfristigen Veränderungen in ihrer regionalen Ausprägung gespeichert haben. Sie enthalten Informationen über die Änderungen der gesamten marinen Umwelt mit ihren Auswirkungen auf die marine Biosphäre. Ihre Untersuchung erlaubt daher die Rekonstruktion der Auswirkungen sich ändernder Klimate auf die Ozeane sowie die Veränderungen der räumlichen Verteilung von Wassermassen beziehungsweise der Zirkulationssysteme in den Ozeanen. Die Analysenmethoden zur Messung der Proxydaten sind gut etabliert, jedoch besteht noch erheblicher Forschungsbedarf für die Ableitung von echten Klimaparametern aus diesen Proxies. So sind Fragen der Fixierung der Klimasignale im Sediment und deren mögliche Veränderung durch Bioturbation oder Diagenese bis hin zur quantitativen Bestimmung der Temperatursignale aus Verhältnissen stabiler Isotope in Resten mariner Organismen nur durch ein breites Spektrum grundlegender und neu zu entwickelnder biologischer, biogeochemischer und physikalischer Methoden zu klären. Die gute Korrelation der im Nordatlantik gefundenen Lagen von Material, das durch Eisberge transportiert wurde (Heinrich Events), mit Proxyparametern für Änderungen der Oberflächenwassertemperaturen und den in Grönland gefundenen Dansgaard-Oeschger Zyklen zeigt klar die Leistungsfähigkeit, aber auch die Grenzen des Multiparameterproxy-Ansatzes zur Klimarekonstruktion aus Meeressedimenten. Es ist noch nicht möglich, die Temperaturproxies so genau zu bestimmen, dass eindeutig geklärt werden könnte, ob das Einsetzen der verstärkten Kalbung von Eisbergen ursächlich für eine einsetzende Temperaturänderung ist, oder ob eine Temperaturänderung ein verstärktes Kalben nach sich zieht. Zur Beantwortung dieser Fragen muss die absolute Altersdatierung verbessert werden. Daher sind laminierte Sedimentabfolgen im flachmarinen Umfeld wie im Cariaco- und Santa BarbaraBecken ideale Archive, um die Variabilität der großen ozean-atmosphären Oszillationen (zum Beispiel ENSO) auf der dekadischen bis intra-anuellen Zeitskala während der letzten Jahrtausende zu analysieren. Die präzise Datierbarkeit dieser Sedimentabfolgen und die mögliche hohe zeitliche Auflösung haben ein neues Feld in der Paläo-Ozeanographie eröffnet. Hier sind in Zukunft grosse Fortschritte in unserem Verständnis der Kopplung Ozean-Kontinent zu erwarten. Damit wird ferner die Datenbasis für die Beurteilung des Einflusses der Klimavariabilität auf den menschlichen Lebensraum grundlegend erweitert, auch im Hinblick auf archäologische und anthropologische Fragen. Um der besonderen steuernden Rolle der Polarregionen im Klimasystem gerecht zu werden, müssen die polaren Ozeane stärker als bisher beprobt und untersucht werden. Beispielhaft hierfür sind das Nansen Arctic Drilling Programm oder die Programme für die Laptevund die Kara-See zu nennen. Letztere wenden sich auch der Frage nach dem Einfluss der zeitlichen Variabilität der großen kontinentalen Stromsysteme zu, die in den arktischen Ozean entwässern. Hierfür müssen neue Proxies und chrono-stratigraphische Methoden ent-
wickelt werden, da der Einsatz von gängigen Analysenmethoden im polaren Umfeld limitiert ist.
Seesedimente Sedimente großer und kleiner Seen haben sich als ideale Klima- und Umweltanzeiger auf den Kontinenten erwiesen, da sie mit Jahres- oder sogar saisonaler Auflösung eine Vielzahl von Klimaparametern, vulkanische Aktivitäten wie auch geomagnetische Feldvariationen aufzeichnen. Im Unterschied zu anderen terrestrischen Paläoklima-Archiven sind Seesedimente weltweit in allen Klimazonen vorhanden und bieten zudem die einmalige Chance, über ausgewählte Proxies (Sediment-akkumulationsraten, palynologische Kulturzeiger, Holzkohle, DNA-Analysen) anthropogene Aktivitäten festzustellen, zu quantifizieren und mit archäologischen und historischen Befunden zu korrelieren. Aufgrund unterschiedlicher Bildungsmechanismen und Sedimentationsraten großer und kleiner Seen dokumentieren die Sequenzen Zeiträume in der Größenordnung von 10.000 Jahren bis zu mehreren Millionen Jahren. Die Sedimentfolgen sind abhängig von der jeweiligen Landschaftsgeschichte, so findet man in Europa in den Seen der Vereisungsgebiete nur Ablagerungen des Spätglazials und Holozäns, während zum Beispiel Seen in Periglazialräumen mehrere glaziale Zyklen überdauerten. Entsprechend konnten in Maar- beziehungsweise Kraterseen Mitteleuropas Warvenchronologien erstellt werden, die bis 23.000 Jahre vor heute, in Süditalien aber bis 100.000 Jahre vor heute zurückreichen. Damit ist zugleich die Datierung von in den Sequenzen enthaltenen Tephrahorizonten möglich, die eine einzigartige, jahrgenaue Korrelation zwischen terrestrischen und marinen Profilen erlauben. Die Auflösung dieser Profile auf Jahresbasis und zum Teil auf Jahreszeiten ermöglicht die zeitliche Eingrenzung von natürlichen Klimavariationen, die Datierung und Häufigkeitsanalyse von Extremereignissen (zum Beispiel Erdbeben) und die Analyse eines breiten Spektrums klimasteuernder Periodizitäten (NAO, SOI, solare Periodizitäten, Milankovitch-Zyklen). So kann man zum Beispiel den Kälterückschlag in die Jüngere Dryas in Mitteleuropa auf 25 – 30 Jahre beziffern. Anfang und Ende dieser Periode sind genau in Warvenjahren anzugeben, die Dauer belief sich in Mitteleuropa auf 1070 Jahre. Die Warvenchronologien wurden zugleich durch AMS14C-Daten kontrolliert, wobei sich herausstellte, dass die „Eifel“-Chronologie exzellent mit dem Profil des Suigetsu-Sees in Japan, aber auch mit den marinen Sequenzen des Cariaco-Beckens und den Korallen von Barbados sowie der deutschen Dendrochronologie übereinstimmt. Den auf Jahresbasis bestehenden Profilen des letzten Glazials stehen die Untersuchungen von Sedimentabfolgen in großen Seen gegenüber, die mehrere Glazial-Interglazial-Zyklen umfassen und zum Beispiel im Baikalsee im Miozän beginnen. Der Vorteil dieser Sequenzen mit geringerer Auflösung liegt in der Analyse längerfri-
Abb. 54: Der Einfluss des Klimas auf die klassische Maya-Kultur (anhand von geochemischen Untersuchungen an laminierten Sedimenten des Cariaco Beckens vor der Küste Venezuelas).
stiger, großräumiger und auch weit zurückliegender Klimaschwankungen. Zukünftige Schwerpunktthemen sind: • Erfassung der Dauer und Amplitude von markanten Klimawechseln und extremen Klimaereignissen auf den Kontinenten, • Untersuchung der Wechselwirkungen von Klimavariabilität, Besiedlungsgeschichte und Landschaftsentwicklung für ausgewählte Brennpunkte der Zivilisationsgeschichte. Dafür ist notwendig: • Erstellung absoluter Chronologien (Warvenchronologien) für die letzten 130.000 Jahre in ausgewählten Seen, • Kalibrierung der 14C-Datierung an der Warvenchronologie über 11.000 Jahre hinaus, • Multiparameternetzwerke und Ableitung von Klimazustandsgrößen für die jeweiligen Lokalitäten, • Verbesserung lokaler und regionaler Magnetostratigraphien und Altersmodelle mit dem Ziel der überregionalen Korrelation.
Erdsystemmodellierung Erdsystemmodelle ermöglichen es, die physikalischen Mechanismen der rekonstruierten Klimavariabilität zu untersuchen, die aus Wechselwirkungen zwischen den
Komponenten des Erdsystems resultieren. Diese umfassen Atmosphäre, Ozean, Meer- und Inlandeis, marine und terrestrische Biosphäre sowie die feste Erde (zum Beispiel Sedimenttransport, Subduktionszonen). Die verbindenden Elemente sind die Stoff-, Impuls- und Energieflüsse. Stoffflüsse können die Konzentration klimarelevanter Spurenstoffe (zum Beispiel Kohlendioxidgehalt der Atmosphäre) verändern; sie können auch eine Umverteilung von Nährstoffen (zum Beispiel Stickstoff) bewirken und damit die Biosphäre beeinflussen. Ziel der Erdsystemmodellierung ist es hier, die Ursachen natürlicher Klimavariationen zu verstehen, Rückkopplungsmechanismen im Erdsystem zu identifizieren, sowie daraus Aussagen über die Stabilität des Klimasystems zu unterschiedlichen geologischen Zeiten abzuleiten. Die so gewonnenen Erkenntnisse werden dazu beitragen, die möglichen anthropogenen Einflüsse auf das Klimageschehen vorherzusagen und von natürlichen Klimavariationen zu unterscheiden. Mit Erdsystemmodellen meint man heute zumeist komplexe Computerprogramme, die die Dynamik von Atmosphäre, Ozean, Meereis und so weiter, sowie die Wechselwirkung zwischen diesen Komponenten beschreiben. Die Spannbreite der Modelle reicht von möglichst detaillierten, realitätsnahen Modellen über solche mit reduzierter Komplexität bis hin zu konzeptionellen Modellen die, auf die wesentlichen Elemente der Dynamik reduziert, ein tieferes Verständnis des Klimasystems erlauben. Bereits heute erlauben Erdsystemmodelle mittlerer Komplexität Rechenzeiten von einigen zehntausend Jahren, so dass klimarelevante Prozesse auf geologischen Zeitskalen erstmals in großem Detail untersucht werden können. Die Entwicklung und Kopplung von Modellkompo-
121
122
nenten für Atmosphäre, Ozean und Meereis ist weiter fortgeschritten als die Behandlung der Biosphäre, der geochemischen Reservoire und der festen Erde. Insbesondere die Wechselwirkungen zwischen Biosphäre, Geochemie und Klima basieren zurzeit noch auf empirischen Befunden und nicht auf einem tieferen Prozessverständnis. Gerade die biogeochemischen und sedimentmechanischen Modellkomponenten bergen aber die Möglichkeit, biologische und sedimentologische Proxydaten, auf denen die Klimarekonstruktionen beruhen, direkt zu berechnen. Paläoklima-Proxydaten und Ergebnisse aus Erdsystemmodellen haben in der Vergangenheit meist eine mehr getrennte Bearbeitung erfahren. Zwar wurden Daten zum Antrieb von Modellen verwendet; gleichzeitig sank dadurch jedoch die Zahl der verfügbaren, unabhängigen Daten zur Modellvalidierung. Zudem wirkte sich bei Modell-Daten-Vergleichen nachteilig aus, dass die Modelle nur sehr selten die geologisch rekonstruierten Größen direkt berechneten. Stattdessen wurden die modellierten Größen oftmals auf der Basis von Annahmen mit Paläoklimadaten verglichen (zum Beispiel Ozeantemperaturen mit Sauerstoffisotopenwerten). Die sich abzeichnende Weiterentwicklung biologischer, geochemischer und sedimentmechanischer Modellkomponenten sowie die Einbettung regionaler in globale Modelle wird dazu führen, dass Erdsystemmodelle in einigen Jahren detailliert die Verteilung entsprechender Proxydaten auf geologischen Zeitenräumen berechnen können. Da die aktuellen, gekoppelten Erdsystemmodelle zu ihrem Antrieb nur ein Minimum an rekonstruierten Informationen benötigen, werden zukünftig somit deutlich mehr Proxydaten zur Modellvalidierung zur Verfügung stehen. Es ist ebenfalls zu erwarten, dass zur Validierung nicht länger nur mittlere Zustände des Erdsystems verwendet werden, sondern auch deren zeitliche Variationen. Die Übereinstimmung zwischen modellierter und rekonstruierter Vergangenheit wird durch den Einsatz von Monte-Carlo Simulationen besser quantifizierbar sein. Für geologische Zeitabschnitte, für die Daten in hoher räumlicher und zeitlicher Auflösung vorliegen, lässt sich durch Datenassimilation ein raum-zeitlich vollständiges, dynamisch konsistentes Bild ableiten. Auf diese Weise können vergangene Klimazustände besser dargestellt und in ihrer zeitlichen Entwicklung verstanden werden. Voraussichtliche Meilensteine auf dem Weg der Erdsystemmodellierung werden in der kommenden Dekade die erfolgreiche Simulation (i) der natürlichen Klimavariabilität im Holozän auf Zeitskalen von Dekaden bis zu Jahrtausenden, (ii) des letzten Eiszeitzyklusses, inklusive Heinrich- und Dansgaard-Oeschger Ereignissen sowie der Jüngeren Dryas, und (iii) von wesentlichen Schritten der känozoischen Abkühlungsgeschichte der Erde sein. Diese Entwicklung verlangt den Einschluss von Modellen der Eisschilde, von geochemischen Stoffkreisläufen, der marinen und terrestrischen Biosphäre und die Berücksichtigung variabler Ozeanvolumina. Sie verlangt auch die enge Kooperation von Fachgebieten, die traditionell überwiegend unabhängig gearbeitet haben.
Perspektiven
Für eine Verbesserung der Vergleichbarkeit von Klimasignalen aus den verschiedenen Archiven ist eine verlässliche Datierung mit bestmöglicher Präzision von größter Bedeutung, das heißt die Informationen, die Datenträger (Baumringe, Korallen oder jahreszeitlich geschichtete Sedimente) enthalten, sollten mit jährlicher Auflösung vorliegen. Gut datierte Markerhorizonte, wie vulkanische Aschelagen, aber auch das statistische Anpassen von gemeinsamen klimatischen Oszillationen undatierter Klimakurven an datierte Profile, wie zum Beispiel an die grönländischen Eiskerne, bieten zusätzliche Möglichkeiten. Nur durch optimale Korrelation und Datierung lassen sich Ursachen und Folgen von Klimavariationen unterscheiden beziehungsweise gleichzeitige Klimasignale bestätigen. Aus geo- und biowissenschaftlichen Archiven sind nur Messdaten (=Näherungswerte über meteorologische und ozeanographische Parameter) verfügbar. Es müssen dafür laufend neue Transferfunktionen entwickelt und verbessert werden, die es erlauben, die ursprünglichen Proxydaten in Klimavariable zu überführen. Beispiele sind die Rekonstruktion der atmosphärischen Zusammensetzung aus den im Eis eingeschlossenen Luftblasen oder die Rekonstruktion von Temperatur- und Niederschlagswerten über die mit Pollen und pflanzlichen Makroresten rekonstruierte Vegetationsbedeckung. Dabei ist gerade in Europa die Beziehung zwischen natürlicher Klimavariabilität und anthropogener Beeinflussung der Vegetation von Bedeutung. Auf einem Kontinent, auf dem anthropogene Landnutzung seit über 7.000 Jahren nachweisbar ist, tritt zusätzlich das Problem auf, die „natürliche“ Vegetation zu definieren. Hierfür sind flachmarine Archive ideal, die sich durch hohe Sedimentationsraten oder eine laminierten Sedimentationsabfolge auszeichnen. Auf den langen und ultralangen Zeitskalen sind vor allem die klimatischen Extremzustände von Interesse. Entscheidend ist dabei nicht nur die Funktionsweise von Extremklimaten wie etwa von ausgeprägten Treibhaussituationen zu verstehen, sondern auch das Systemverhalten in der Zeit und die Schwellenwerte für Übergänge zwischen Systemzuständen zu charakterisieren. Von einer derartigen Klimasystemforschung ist unter anderem Aufschluss über die Klimawirksamkeit von atmosphärischem Kohlendioxid unter ganz verschiedenen Umweltbedingungen zu erwarten. Die Rolle des Ozeans für Klimawechsel ist auf verschiedenen Zeitskalen noch genauer zu untersuchen. Ursachen, Dauer und Wechselwirkungen von Klimaschwankungen auf die thermohaline ozeanische Zirkulation, insbesondere für die sehr raschen Umschlagszeiten zwischen den einzelnen Zirkulationsphasen, sind von größter Bedeutung für das Verständnis des globalen Klimasystems. Die Klimasignale aller Archive müssen untereinander verknüpft und harmonisiert werden, denn die Relevanz der lokal gewonnenen Informationen kann global sein. Dies muß jedoch in Form einer integrierten
Interpretation der Auswirkungen von Klimaschwankungen auf die einzelnen Archive getestet werden. Insbesondere sind Rückkopplungsprozesse und Verstärkungseffekte, wie zum Beispiel die Wechselwirkungen zwischen Vegetation, Böden und Klima, ohne die das humide Klima in der Sahara während des mittleren Holozäns vor etwa 9.000 bis 6.000 Jahren und die damit einhergehende Ausbreitung subtropischer Flora und Fauna in die rezent hyperaride Klimazone nicht zu erklären ist, zu identifizieren und zu quantifizieren. Der Aufbau langer und zugleich zeitlich hochauflösender Zeitreihen von klimarelevanten Daten ist neben der Beschreibung einzelner Zeitfenster eine wichtige Voraussetzung für Test und Anwendung von Erdsystemmodellen. Erdsystemmodellierung ist bereits ein wichtiger Bestandteil der Forschung. Es müssen jedoch in verstärktem Umfang die Neo- und Paläoklimatologie verbunden werden und die bestehenden Modelle für die Anforderungen der Modellierung vieler Jahrtausende ausgebaut werden. Dafür ist es einerseits unerlässlich, die Messdaten aus den verschiedenen Geoarchiven in quantitative Klimaproxywerte, wie zum Beispiel Temperatur, Salinität oder CO2-Gehalt, zu überführen und andererseits, die bestehenden Computer-Modelle und -Techniken, die besonders für das Forschungsgebiet „Globale Erwärmung“ entwickelt wurden, auch für paläoklimatologische Rekonstruktionen einzusetzen. Daten dienen
dabei der Validierung von Modellen und Modelle andererseits der Interpretation von Daten, denn nur mit Hilfe von physikalischen Modellen lässt sich die beobachtete Variabilität des Klimas als Prozess im Sinne einer Ursache-Wirkungsrelation im Klimasystem erklären oder als chaotisches Verhalten interpretieren. Erst wenn Modelle die Beobachtungen realistisch wiedergeben, ist eine vertrauenswürdige Abschätzung künftiger Klimaentwicklungen möglich.
Integrierte Klimasystem-Analyse Das Ziel, globale Klimaschwankungen, ihre Ursachen und Auswirkungen zu verstehen und zu modellieren, soll mit einer integrierten Klimasystem-Analyse angegangen werden. Grundsätzlich sind dazu die folgenden Forschungsaufgaben durchzuführen: (a) Gewinnung und Aufbereitung von Daten mit • der Erstellung einer gemeinsamen konsistenten Zeitskala für alle Archive, • der Strukturierung von Multi-Parameter-Netzwerken (lokal-regional-global) und • der Entwicklung von Transferfunktionen und Ableitung von Klimavariablen (Temperatur, Niederschlag, Windgeschwindigkeit et cetera) aus Proxywerten.
123
Abb. 55: 5 Millionen Jahre Fieberkurve des Erdklimas.
(b) Modellentwicklung mit • der Berechnung der Variabilität von Klima-ProxyDaten und meteorologischen Messwerten, • der iterativen Entwicklung und Validierung der Klimamodelle mit Hilfe der aus Proxies abgeleiteten Klimavariablen sowie • der Anwendung der aus der Kombination von neoklimatischen Messwerten und paläoklimatischen Proxy-Daten verbesserten Klimamodelle zur Klimaprognose.
124
Im einzelnen sind in den nächsten Jahren folgende Forschungsfragen anzugehen: • Quantifizierung der natürlichen Klimavariabilität auf Zeitskalen von wenigen menschlichen Generationen • Identifikation von Lokationen, die besonders sensitiv auf eine mögliche anthropogene Klimasteuerung reagieren • Analyse der Kopplung zwischen mariner und terrestrischer Klimavariabilität unter besonderer Berücksichtgung des Einflusses der Klimaschwankungen auf den Lebensraum des Menschen • Analyse der Entwicklung der grossen ozean-atmosphären Oszillationen der letzten Jahrtausende unter besonderer Berücksichtigung der rapiden Klimaerwärmung durch anthropogene Effekte • Analyse und Vorhersage von Klimaschwellenwerten im Rahmen der anthropogenen Erwärmung und der dafür notwendigen Studie vergangener wärmerer Klimate bei grundsätzlichen vergleichbaren tektonischen Rahmenbedigungen (Pliozäne Warmzeit als Analog einer unipolar vereisten Welt mit eventuell „permanenten“ El Nino Bedingungen) • Klärung des CO2-Kreislaufs unter Berücksichtigung aller Quellen und Senken (Ozean, Vegetation, Böden, industrielle Nutzung von Rohstoffen). • Analyse des Zusammenhangs zwischen atmosphärischer CO2-Konzentration und Klima, auch über längere erdgeschichtliche Zeiträume. Dafür ist notwendig: • Verstärkte interdisziplinäre Analyse von Klimaarchiven mit hoher zeitlicher (möglichst jährlicher) Auflösung • Verfeinerung beziehungsweise Nutzung bislang nicht oder nur selten eingesetzter analytischer Methoden (δ 13C, 14C, Pollen aus Eis, δ 18O an biogener Kieselsäure terrestrischer Sedimente, molekulare Biomarker) • Regionalisierung und Erweiterung der Datenbasis mit bestmöglicher zeitlicher Einordnung und Korrelation der verschiedenen Archive untereinander auf der Basis einer gemeinsamen hochaufgelösten Chronologie • Transferfunktionen und Kalibrationen zur Ableitung quantitativer Klima-Proxywerte aus Messdaten • Anwendung „harter“ statistischer Methoden (mit Signifikanztests) auf alle Daten zur Erfassung von
Trends und zyklischen Variationen • Ausdehnung der multiplen und vergleichenden Signalanalysen unter Berücksichtigung der Abschätzung von Ungenauigkeiten • Einbeziehung der Wechselwirkungen zwischen Daten und Modellen und Entwicklung eines iterativen Prozesses zur Modellvalidierung und Entwicklung • Aufbau eines Daten-Managementsystems, um Informationen und Daten für die verschiedenen Arbeitsgruppen verfügbar zu machen und für zukünftige Aufgabenstellungen zu dokumentieren und zu archivieren • Aufbau einer Modellhierarchie von globalen, aber in langen Zeitschritten rechnenden Erdsystemmodellen bis hin zu räumlich und zeitlich detaillierter rechnenden Regionalklimamodellen. Diese Modelle liegen teilweise bereits vor, müssen jedoch aufeinander abgestimmt und verknüpft werden
Liste der Autoren
W. Andres, Frankfurt † U. Bayer, Potsdam U. Becker, Münster J.D. Becker-Platen, Hannover U. Berner, Hannover R. Bill, Rostock G. Borm, Potsdam D. Bosbach, Münster U. Christensen, Kaltenburg-Lindau B. Cramer, Hannover G. Dresen, Potsdam H. Duddeck, Braunschweig W.C. Dullo, Kiel R. Emmermann, Potsdam J. Erzinger, Potsdam E. Flügel, Erlangen F. Fürsich, Würzburg R. Gaupp, Jena K.H. Glaßmeier, Braunschweig G. Greiner, Potsdam U. Hansen, Münster T. Hantschel, Jülich H.P. Harjes, Bochum G. Haug, Potsdam K. Hinz, Hannover A. Hollerbach, Hannover H. Hubberten, Potsdam H. Keppler, Bayreuth R. Kind, Potsdam F. Kockel, Hannover J. Lauterjung, Potsdam R. Leinfelder, München D. Leythaeuser, Köln R. Littke, Aachen S. Mackwell, Bayreuth B. Merz, Potsdam J. Mienert, Tromsø
H. Miller, Bremerhaven D. Morgenstern, Bonn V. Mosbrugger, Tübingen J. Negendank, Potsdam M. Nußbaumer, Stuttgart O. Oncken, Potsdam W. Oschmann, Frankfurt E. Plate, Karlsruhe H. Poelchau, Jülich A. Putnis, Münster C. Reigber, Potsdam J. Reitner, Göttingen R. Rummel, München M. Sarntheim, Kiel K. Schetelig, Aachen E. Seibold, Freiburg F. Seifert, Bayreuth A. Siehl, Bonn H. Soffel, München V. Stein, Hannover G. v. Storch, Geesthacht W. Stahl, Hannover L. Stempniewski, Karlsruhe H. Strauss, Münster U. Streit, Münster B. Stribny, Freiburg/Br. L. Stroink, Potsdam E. Suess, Kiel J. Thiede, Bremerhaven J. Veizer, Bochum J. Wächter, Potsdam M. Wallner, Hannover F.-W. Wellmer, Hannover D.H. Welte, Jülich F. Wenzel, Karlsruhe T. Wippermann, Hannover J. Zschau, Potsdam
125
Verzeichnis der Abkürzungen
126
AD AES AFM AMS ANCORP (Nordchile) AOM AWI
Anno Domini Auger Electron Spectroscopy Atomic Force Microscope Accelerator Mass Spectrometry ANdean COntinental REsearch PRogram to image an active Subduction
BGR BIOGEST BIRD BKG BMBF BP BSR
Bundesanstalt für Geowissenschaften und Rohstoffe Biogas Transfer in Estuaries Bi-spectral Infra-Red Detection Bundesamt für Kartographie Bundesministerium für Bildung und Forschung Before Present Bottom Simulating Reflector
CAD CDP CINCA CHAMP CONDOR CONGO
Computer Aided Design Common Depth Point Crustal Investigations off- and onshore Nazca/Central Andes Challenging Microsatellite Payload for Geophysical Research and Application Study of the Nazca Plate and adjacent Andean margin off Valparaiso, Chile Das Gashydratsystem in hemipelagischen Sedimenten (Westafrika)
DEGAS
3-D-seismische Detailstudie eines Gashydratvorkommens am konvergenten Kontinentalrand vor Costa Rica Deutsches Reflexionsseismisches Programm Deutsche Forschungsgemeinschaft Deutsches Geodätisches Forschungsinstitut Deutsche Wissenschaftliche Gesellschaft für Erdöl, Erdgas und Kohle e. V. Differential GPS Deutsches Klima-Rechenzentrum Deutsches Zentrum für Luft- und Raumfahrt Doppler Orbitography and Radiolocation Integrated by Satellite Deutsches Prozessierungs- und Archivierungszentrum Deep Sea Drilling Project Diethylentriaminpentaessigsäure
DEKORP DFG DGFI DGMK DGPS DKRZ DLR DORIS D-PAF DSDP DTPA EARTHSCOPE EDTA EDV EEZ ELDP ELOISE ENSO
Anaerobic Oxidation of Methane Alfred-Wegener-Institut für Polar- und Meeresforschung
US-Amerikanisches Langzeit-Programm zum Verständnis der Bildung, Struktur und Entwicklung des Nordamerikanischen Kontinents Ethylendiamintetraessigsäure Elektronische Datenverarbeitung Exclusive Economic Zone European Lake Drilling Program European Land-Ocean Interaction Studies El-Niño/Southern Oscillation
ENVISAT EPICA ERS ESF EU EUROPROBE EXAFS
Environmental Satellite European Project for Ice Coring in Antarctica European Remote Sensing Satellite European Science Foundation European Union Tectonic Evolution of Europe from the Ural Mountains to the Atlantic Extended X-ray Absorption Fine Structure
FCKW FESG FOCUS
Fluor-Chlor-Kohlenwasserstoffe Forschungseinrichtung Satellitengeodäsie (TU München) Intelligentes Infrarot Sensor-System für die Internationalen Raumstation (ISS), zur Beobachtung von Waldbänden aus dem Weltall Forschungsschiff Freie Universität Forschungszentrum Jülich
FS FU FZJ GASSTAB GCM GEIXS GEOMAR GEOPECO
GIS GNSS GOCE GPa GPS GRACE GWC
Hangstabilität und Rutschungen in der Tiefsee- Einflussparameter Gashydrate General-Circulation-Modelling Geological Electronic Information Exchange System Forschungszentrum für Marine Geowissenschaften Geophysical Experiments along the Peruvian Continental Margin – Investigations of Tectonics, Mechanics, Gashydrates and Fluid Transport GeoForschungsZentrum Potsdam Geowissenschaftliche Gemeinschaftsaufgaben Gesamthochschule Gas Hydrates: Occurence, Stability, Transformation, Dynamic and Biology in the Black Sea Geo-Informations-System Global Navigation Satellite System Global Ocean and Continent Experiment Giga-Pascal Global Positioning System Gravity Recovery and Climate Experiment Gas Water Contact
HAIRS HEDP HPLC HSZ HVZ
High Accuracy Inter-satellite Ranging System Hydroxylethyl-diphosphat High Pressure Liquid Chromatography Hydrat-Stabilitäts-Zone Hochwasservorhersagezentrale
IAG ICDP ICP-MS ICSU IERS IDNDR IES IGBP IGCP IGGM IGGOS IGOS IGS
International Association of Geodesy International Continental Scientific Drilling Program Ion-Coupled-Plasma Mass Spectrometery International Council of Scientific Unions International Earth Rotation Service International Decade of Natural Disaster Reduction Integrated Exporation Systems International Geosphere Biosphere Programme International Geoscientific Correlation Program Integriertes Geodätisch-Geodynamisches Monitoringsystem Integrated Global Geodetic Observing System Integrated Global Observing Strategy International GPS Service
GFZ GGA GH GHOSTDABS
127
ILP INGGAS INSAR IODP ISDC ISS IUGG IUGS JAGO
bemanntes Forschungstauchboot des Max-Planck-Instituts für Verhaltensphysiologie, Seewiesen
KTB KW
Kontinentales Tiefbohrprogramm der Bundesrepublik Deutschland Kohlenwasserstoff
LEED LITASEIS LGM LGRB LLR LOICZ LOTUS
Low Energy Electron Diffraction Seismisches Experiment Litauen Letztes Glaziales Maximum Landesamt für Geologie und Rohstoffe Brandenburg Lunar Laser Ranging Land Ocean Interaction in the Coastal Zone Long-term observatory for the study of control mechanisms for the Formation and destabilisation of gas hydrates Late Paleocene Thermal Maximum
LPTM
128
International Lithosphere Program Integrierte geophysikalische Charakterisierung und Quantifizierung von Gashydraten Interferometric Synthetic Aperture Radar International Ocean Drilling Project Information System and Data Centre International Space Station International Union of Geodesy and Geophysics International Union of Geological Sciences
MAC MARGASCH MAST MAX80 MERAPI MUMM
Multi Autoclav Cover Marine Gashydrate im Schwarzen Meer Marine Science and Technology Program Multi-Anvil High Pressure Apparatus for X-ray Diffraction, 1980 Mechanism Evaluation, Risk Assessment and Prediction Improvement Methan in marinen gashydrathaltigen Sedimenten – Umsatz und Mikroorganismen
NAO NASA NBL OAE OBH ODP OECD OMEGA OSPARCOM OTEGA
North Atlantic Oscillation National Aeronautics and Space Administration Neue Bundesländer Oceanic Anoxic Events Ocean Bottom Hydrophon Ocean Drilling Program Organization for Economic Co-Operation and Development Oberflächennahe marine Gashydrate Oslo-Paris-Commission Expedition SONNE – 165 zum Hydratrücken vor der Küste Oregons
PACOMAR PAGANINI
Pacific-Costa Rica-Margin PAnama basin and Galapagos plume – New Investigations of Intraplate magmatism Network for Geological and Environmental Data Particle Induced X-Ray Emission
PANGAEA PIXE
PRARE
Precise Range and Range Rate Equipment
RKM ROV RTM
Rasterkraftmikroskop Remotely Operated Vehicle Rastertunnelmikroskopie
SAGA SAR SFB SKS-Methode
South America GPS Array Synthetic Aperture Radar Sonderforschungsbereich der DFG Analyse der Aufspaltung seismischer Sekundärwellen-Typen, die den Erdkern durchlaufen, zum Nachweis von Anisotropien im Untergrund Satellite Laser Ranging Schwerpunktprogramm der DFG Southern Oscillation Index Satellite-to-Satellite Tracking Scanning Tunnel Microscope
SLR SPP SOI SST STM TBSP TEM TERI TICOSET TIGO T/P TOF-SIMS TRANSALP TU
Tiefe Biosphäre Transmissions-Elektronenmikroskop Terrestrial Ecosystems Research Initiative Trans Isthmus Costa Rica Scientific Exploration of a Crustal Transect Transportable Integrated Geodynamic Observatory TOPEX/Poseidon – Ocean Topography Experiment Time-of-Flight Secondary Ion Mass Spectrometry (Flugzeit-Sekundärionenmassenspektroskopie) The East-Alpine Reflection Seismic Traverse (D-A-I) Technische Universität
UFZ UHV UMP UN UPS
Umweltforschungszentrum Leipzig/Halle Ultra-Hochvakuum Upper Mantle Project United Nations Ultraviolett Photoelektronen Spektroskopie
VLBI VPF
Very Long Baseline Interferometry Vital-Physiologisches Fenster
WWW
World Wide Web
XANES XPS
X-ray Absorption Near Edge Spectroscopy X-ray Photo Emmission Spectroscopy
129
130
GEOTECHNOLOGIEN Das System Erde: Vom Prozessverst채ndnis zum Management
EIN GEOWISSENSCHAFTLICHES FORSCHUNGS- UND ENTWICKLUNGSPROGRAMM VON
Bildnachweis Sofern nicht anders vermerkt, wurden alle Abbildungen durch die Autoren der Beiträge geliefert. Seite 4: Seite 11: Seite 12: Seite 30: aus: Seite 35 oben:
Seite 35 unten:
Seite 56 oben: Seite 56 unten: Seite 58: Seite 86: Seite 87 oben: Seite 87 unten: Seite 88 oben: Seite 88 unten: Seite 90: Seite 94: Seite 95:
Astrium GEO, 1994 L. Kerschhofer, Bayreuth K. Waters, Reflection Seismology, Wiley, 1987 aus: Sonneland et al., Seismic Reservoir Monitoring on Gulflakes, Leading Edge 1997 aus: Jenkings et al., Seismic Reservoir Monitoring on Gulflakes, Leading Edge 1997 MUMM, MPI Bremen GOSTDABS, Universität Hamburg Universität Göttingen gmp Architekten, Berlin FOCUS Bildagentur, Hamburg Stein&Partner, Bochum DIZ München GmbH Herrenknecht AG, Schwanau BGR, Hannover B. Middendorf, Kassel C. M. Pina, 1997
Impressum: Layout: Otto Grabe, Grit Schwalbe 3. veränderte Auflage Potsdam, August 2003