Geowissenschaften
Refine
Year of publication
Document Type
- Working Paper (19) (remove)
Has Fulltext
- yes (19)
Is part of the Bibliography
- no (19)
Keywords
- Bewässerung (2)
- Deutschland (2)
- Klima (2)
- Klimaänderung (2)
- Landwirtschaft (2)
- Modellierung (2)
- Rhein-Main-Gebiet (2)
- Anthropogene Klimaänderung (1)
- Atlas (1)
- Bildungswesen (1)
Institute
- Geowissenschaften (19)
During the 1980s and early 1990s, the importance of small firm growth and industrial districts in Italy became the focus of a large number of regional development studies. According to this literature, successful industrial districts are characterized by intensive cooperation and market producer-user interaction between small and medium-sized, flexibly specialized firms (Piore and Sabel, 1984; Scott, 1988). In addition, specialized local labor markets develop which are complemented by a variety of supportive institutions and a tradition of collaboration based on trust relations (Amin and Robins, 1990; Amin and Thrift, 1995). It has also been emphasized that industrial districts are deeply embedded into the socio-institutional structures within their particular regions (Grabher, 1993). Many case studies have attempted to find evidence that the regional patterns identified in Italy are a reflection of a general trend in industrial development rather than just being historical exceptions. Silicon Valley, which is focused on high technology production, has been identified as being one such production complex similar to those in Italy (see, for instance, Hayter, 1997). However, some remarkable differences do exist in the institutional context of this region, as well as its particular social division of labor (Markusen, 1996). Even though critics, such as Amin and Robins (1990), emphasized quite early that the Italian experience could not easily be applied to other socio-cultural settings, many studies have classified other high technology regions in the U.S. as being industrial districts, such as Boston s Route 128 area. Too much attention has been paid to the performance of small and medium-sized firms and the regional level of industrial production in the ill-fated debate regarding industrial districts (Martinelli and Schoenberger, 1991). Harrison (1997) has provided substantial evidence that large firms continue to dominate the global economy. This does not, however, imply that a de-territorialization of economic growth is necessarily taking place as globalization tendencies continue (Storper, 1997; Maskell and Malmberg, 1998). In the case of Boston, it has been misleading to define its regional economy as being an industrial district. Neither have small and medium-sized firms been decisive in the development of the Route 128 area nor has the region developed a tradition of close communication between vertically-disintegrated firms (Dorfman, 1983; Bathelt, 1991a). Saxenian (1994) found that Boston s economy contrasted sharply with that of an industrial district. Specifically, the region has been dominated by large, vertically-integrated high technology firms which are reliant on proprietary technologies and autarkic firm structures. Several studies have tried to compare the development of the Route 128 region to Silicon Valley. These studies have shown that both regions developed into major 2 agglomerations of high technology industries in the post-World War II period. Due to their different traditions, structures and practices, Silicon Valley and Route 128 have followed divergent development paths which have resulted in a different regional specialization (Dorfman, 1983; Saxenian, 1985; Kenney and von Burg, 1999). In the mid 1970s, both regions were almost equally important in terms of the size of their high technology sectors. Since then, however, Silicon Valley has become more important and has now the largest agglomeration of leading-edge technologies in the U.S. (Saxenian, 1994). Saxenian (1994) argues that the superior performance of high technology industries in Silicon Valley over those in Boston is based on different organizational patterns and manufacturing cultures which are embedded in those socio-institutional traditions which are particular to each region. Despite the fact that Saxenian (1994) has been criticized for basing her conclusions on weak empirical research (i.e. Harrison, 1997; Markusen, 1998), she offers a convincing explanation as to why the development paths of both regions have differed.1 Saxenian s (1994) study does not, however, identify which structures and processes have enabled both regions to overcome economic crises. In the case of the Boston economy, high technology industries have proven that they are capable of readjusting and rejuvenating their product and process structures in such a way that further innovation and growth is stimulated. This is also exemplified by the region s recent economic development. In the late 1980s, Boston experienced an economic decline when the minicomputer industry lost its competitive basis and defense expenditures were drastically reduced. The number of high technology manufacturing jobs decreased by more than 45,000 between 1987 and 1995. By the mid 1990s, however, the regional economy began to recover. The rapidly growing software sector compensated for some of the losses experienced in manufacturing. In this paper, I aim to identify the forces behind this economic recovery. I will investigate whether high technology firms have uncovered new ways to overcome the crisis and the extent to which they have given up their focus on self-reliance and autarkic structures. The empirical findings will also be discussed in the context of the recent debate about the importance of regional competence and collective learning (Storper, 1997; Maskell and Malmberg, 1998). There is a growing body of literature which suggests that some regional economies During the 1980s and early 1990s, the importance of small firm growth and industrial districts in Italy became the focus of a large number of regional development studies. According to this literature, successful industrial districts are characterized by intensive cooperation and market producer-user interaction between small and medium-sized, flexibly specialized firms (Piore and Sabel, 1984; Scott, 1988). In addition, specialized local labor markets develop which are complemented by a variety of supportive institutions and a tradition of collaboration based on trust relations (Amin and Robins, 1990; Amin and Thrift, 1995). It has also been emphasized that industrial districts are deeply embedded into the socio-institutional structures within their particular regions (Grabher, 1993). Many case studies have attempted to find evidence that the regional patterns identified in Italy are a reflection of a general trend in industrial development rather than just being historical exceptions. Silicon Valley, which is focused on high technology production, has been identified as being one such production complex similar to those in Italy (see, for instance, Hayter, 1997). However, some remarkable differences do exist in the institutional context of this region, as well as its particular social division of labor (Markusen, 1996). Even though critics, such as Amin and Robins (1990), emphasized quite early that the Italian experience could not easily be applied to other socio-cultural settings, many studies have classified other high technology regions in the U.S. as being industrial districts, such as Boston s Route 128 area. Too much attention has been paid to the performance of small and medium-sized firms and the regional level of industrial production in the ill-fated debate regarding industrial districts (Martinelli and Schoenberger, 1991). Harrison (1997) has provided substantial evidence that large firms continue to dominate the global economy. This does not, however, imply that a de-territorialization of economic growth is necessarily taking place as globalization tendencies continue (Storper, 1997; Maskell and Malmberg, 1998). In the case of Boston, it has been misleading to define its regional economy as being an industrial district. Neither have small and medium-sized firms been decisive in the development of the Route 128 area nor has the region developed a tradition of close communication between vertically-disintegrated firms (Dorfman, 1983; Bathelt, 1991a). Saxenian (1994) found that Boston s economy contrasted sharply with that of an industrial district. Specifically, the region has been dominated by large, vertically-integrated high technology firms which are reliant on proprietary technologies and autarkic firm structures. Several studies have tried to compare the development of the Route 128 region to Silicon Valley. These studies have shown that both regions developed into major 2 agglomerations of high technology industries in the post-World War II period. Due to their different traditions, structures and practices, Silicon Valley and Route 128 have followed divergent development paths which have resulted in a different regional specialization (Dorfman, 1983; Saxenian, 1985; Kenney and von Burg, 1999). In the mid 1970s, both regions were almost equally important in terms of the size of their high technology sectors. Since then, however, Silicon Valley has become more important and has now the largest agglomeration of leading-edge technologies in the U.S. (Saxenian, 1994). Saxenian (1994) argues that the superior performance of high technology industries in Silicon Valley over those in Boston is based on different organizational patterns and manufacturing cultures which are embedded in those socio-institutional traditions which are particular to each region. Despite the fact that Saxenian (1994) has been criticized for basing her conclusions on weak empirical research (i.e. Harrison, 1997; Markusen, 1998), she offers a convincing explanation as to why the development paths of both regions have differed.1 Saxenian s (1994) study does not, however, identify which structures and processes have enabled both regions to overcome economic crises. In the case of the Boston economy, high technology industries have proven that they are capable of readjusting and rejuvenating their product and process structures in such a way that further innovation and growth is stimulated. This is also exemplified by the region s recent economic development. In the late 1980s, Boston experienced an economic decline when the minicomputer industry lost its competitive basis and defense expenditures were drastically reduced. The number of high technology manufacturing jobs decreased by more than 45,000 between 1987 and 1995. By the mid 1990s, however, the regional economy began to recover. The rapidly growing software sector compensated for some of the losses experienced in manufacturing. In this paper, I aim to identify the forces behind this economic recovery. I will investigate whether high technology firms have uncovered new ways to overcome the crisis and the extent to which they have given up their focus on self-reliance and autarkic structures. The empirical findings will also be discussed in the context of the recent debate about the importance of regional competence and collective learning (Storper, 1997; Maskell and Malmberg, 1998). There is a growing body of literature which suggests that some regional economies an develop into learning economies which are based on intra-regional production linkages, interactive technological learning processes, flexibility and proximity (Storper, 1992; Lundvall and Johnson, 1994; Gregersen and Johnson, 1997). In the next section of this paper, I will discuss some of the theoretical issues regarding localized learning processes, learning economies and learning regions (see, also, Bathelt, 1999). I will then describe the methodology used. What follows is a brief overview of how Boston s economy has specialized in high technology production. The main part of the paper will then focus on recent trends in Boston s high technology industries. It will be shown that the high technology economy consists of different subsectors which are not tied to a single technological development path. The various subsectors are, at least partially, dependent on different forces and unrelated processes. There is, however, tentative evidence which suggests that cooperative behavior and collective learning in supplierproducer- user relations have become important factors in securing reproductivity in the regional structure. The importance of these trends will be discussed in the conclusions.
Aus mehreren Datenquellen wurde ein neuer globaler Niederschlagsdatensatz für die Zeit 1951-2000 generiert, der unter der Bedingung einer Mindestverfügbarkeit von 90 % genau 9.343 Stationen umfasst. Die betreffenden Zeitreihen wurden einer umfassenden Qualitätskontrolle unterzogen, was zu äußerst zahlreichen Korrekturen führte, einschließlich Tests auf Ausreißer und Homogenität sowie Homogenisierung. Daraus entstand ein Gitterpunktdatensatz in 0,5° x 0,5°- Auflösung, was für die Landgebiete (ausgenommen Grönland und Antarktis) rund 71.000 Gitterpunkte ergibt, und über INTERNET frei verfügbar bereitgestellt. Davon ausgehend und unter Nutzung weiterer vorliegender Datensätze, insbesondere der Temperatur, wurden zunächst einige grundlegende Untersuchungen zur globalen und regionalen Klima- und Niederschlagsvariabilität durchgeführt. Diese Arbeiten umfassten Analysen der Veränderungen des global gemittelten Niederschlages und potentieller Einflussgrößen, die Neuberechnung der globalen Klimaklassifikation nach Köppen, Untersuchungen zur raumzeitlichen Struktur von Niederschlagsänderungen global sowie speziell in Afrika und schließlich Analysen der raumzeitlichen Beziehungen zwischen großräumiger atmosphärischer Zirkulation und Niederschlag im nordatlantisch-europäischen Bereich. Für weitergehende statistische Analysen wurde eine neue Methode der vollständigen Zeitreihenmodellierung entwickelt, um die die in diesen Reihen enthaltenen signifikanten Variationskomponenten durch Regressionstechniken zu erfassen und in ihrem raumzeitlichen Verhalten darzustellen. Dabei lag ein Schwerpunkt dieser Arbeiten auf der Extremwertanalyse, die es nun gestattet, unabhängig vom Verteilungstyp für beliebige Schwellenwerte den zeitlichen Verlauf der Unter- sowie Überschreitungswahrscheinlichkeit anzugeben und somit zu erkennen, inwieweit das Klima extremer geworden ist. Dabei zeigte sich je nach Region die Gumbel- oder die Weibull-Verteilung als geeignet. Regionale Schwerpunkte waren dabei u.a. Deutschland bzw. Europa, auch hinsichtlich der Erstellung neuer Klimatrendkarten nach der üblichen linearen Methode (der kleinsten Quadrate) sowie der innovativen. Weiterhin wurden nach der innovativen Methode Klimamodelldaten des Hamburger Max-Planck-Instituts für Meteorologie (IPCC Szenario A2) hinsichtlich des Niederschlag-Extremverhaltens in Europa untersucht. Schließlich erfolgte eine Abschätzung der Wiederkehrzeiten täglicher Extremniederschläge in Deutschland und deren Unsicherheit.
Die vorliegende Arbeit wurde im Rahmen des Forschungsprojekts „Integrierte Analyse von mobilen, organischen Fremdstoffen in Fließgewässern“ (INTAFERE) am Institut für Physische Geographie an der Goethe-Universität Frankfurt erstellt. In INTAFERE wurde das Gefährdungspotenzial von mobilen, organischen Fremdstoffen (MOF) für aquatische Ökosysteme und die natürlichen Wasserressourcen in integrierter und partizipativer Art und Weise untersucht. MOF sind chemische Substanzen, die in Alltagsprodukten enthalten sind und durch unterschiedliche Eintragsfade in unbekannten Mengen in Oberflächengewässer eingetragen werden. Problematisch sind aus Umweltgesichtspunkten ihre Eigenschaften: sie besitzen im Wasser eine hohe Mobilität und sind schwer abbaubar. Dies führt zu einer Persistenz über lange Zeiträume. Für einige dieser Substanzen wurde zudem gezeigt, dass sie in sehr geringen Konzentrationen biologisch aktiv sind und für aquatische Ökosysteme eine Gefahr darstellen. In INTAFERE wurden drei zentrale Ziele verfolgt: Charakterisierung des Problemfeldes MOF, Erzeugung von praxisrelevantem Wissen für das Management von MOF und Entwicklung einer Softwareanwendung, die gesellschaftliche Aushandlungsprozesse durch eine transparente Darstellung der Wirkungszusammenhänge im Problemfeld unterstützt. Um einen Beitrag für die Erfüllung der Ziele zu leisten, war es die Aufgabe der Verfasserin, eine Akteursanalyse und -modellierung durchzuführen sowie Zukunftsszenarien im Bereich der MOF zu entwickeln. Dafür existierte keine adäquate Methodik, daher verfolgt die Dissertation zum einen die Entwicklung einer Methodik und zum anderen deren Anwendung im Kontext des Projektes INTAFERE. Da im Forschungsprozess die Durchführung von Analysen, die wissenschaftliche und gesellschaftliche Sichtweise der Problematik sowie die Erarbeitung von praktischen Lösungen im Mittelpunkt standen, wurde eine transdisziplinäre Herangehensweise gewählt. Ziel war es, eine Methodik zu entwerfen, die sowohl eine Entwicklung von Szenarien als auch eine Modellierung von Handlungsentscheidungen umfasst. Eine Modellierung und Visualisierung von Handlungsentscheidungen ist notwendig, um Strategien für ein Umweltproblem für verschiedene Szenarien zu ermitteln, und damit einen Lernprozess der Stakeholder zu initiieren. Dies wurde mit der transdisziplinären Methode „Akteursbasierte Modellierung“ umgesetzt. Hierbei wurden insbesondere Aspekte der Problemwahrnehmung von Akteuren und deren Darstellung, der partizipativen Szenarienentwicklung sowie der semi-quantitativen Modellierung von Handlungsentscheidungen berücksichtigt. Die Verfasserin hat mit der semi-quantitativen akteursbasierten Modellierung eine Methode erarbeitet und getestet, die bisher unverbundene Komponenten (wie die Software Dynamic Actor Network Analysis (DANA) und die Szenarienentwicklung) zusammenführt. Um Handlungsentscheidungen unter verschiedenen Szenarien zu modellieren hat die Autorin eine sequentielle Modellierung entwickelt, die mit der Software DANA durchgeführt werden kann. Die dafür notwendige Weiterentwicklung von DANA wurde von Dr. Pieter Bots (TU Delft) umgesetzt. Die akteursbasierte Modellierung läuft in drei methodischen Schritten ab: 1. Modellierung von Akteurs-Sichtweisen in Form von Wahrnehmungsgraphen und deren Analyse, aufbauend auf Ergebnissen von qualitativen, leitfaden-gestützten Expertengesprächen (= Akteursmodellierung), 2. partizipative Szenarienentwicklung mit den Akteuren und 3. Zusammenführung der Ergebnisse der Akteursmodellierung und der Szenarienentwicklung und darauf aufbauend eine sequentielle Modellierung von Handlungsentscheidungen und deren Auswirkungen auf Schlüsselfaktoren. Im Zuge der Anwendung auf das Problemfeld der MOF wurde für folgende Akteure jeweils ein Wahrnehmungsgraph modelliert: Obere Wasserbehörde, Umweltbundesamt, Umwelt- und Verbraucherschutzorganisationen, Wasserversorger sowie für die Hersteller von verschiedenen MOF, weiterhin für die European Flame Retardants Association und die Weiterverarbeitende Industrie. Das Ergebnis der Szenarienentwicklung waren vier Szenarien: ein Gesundheitsszenario, unter der Annahme von hohen lokalen Umweltstandards durch nachhaltigkeitsorientierte KonsumentInnen, ein Umweltszenario, in dem eine starke Regulierung und nachhaltigkeitsorientierter Konsum Hand in Hand gehen, ein Globalisierungsszenario, in dem Wirtschaftsmacht und preisbewusste KonsumentInnen statt staatliche Regulierung vorherrschen und ein Technikszenario, unter der Annahme, dass Kläranlagen, bedingt durch eine starke Regulierung, aufgerüstet werden. Bei der Modellierung von Handlungsentscheidungen wurden die Wahrnehmungsgraphen und die vier Szenarien miteinander verknüpft. Pro Substanz wurde ein Modell entwickelt, welches die wichtigsten Systemkomponenten in einer angemessenen Komplexität umfasst und die von den Akteuren gemeinsam getragene Einschätzung der Wirkungsbeziehungen darstellt. Insgesamt wurden 16 Modelle entwickelt. Basierend auf den simulierten Akteurshandlungen wurden relativen Veränderungen der Schlüsselfaktoren Produktion, Import und Leistungsfähigkeit der Kläranlagen für die vier genannten Szenarien berechnet. In Zusammenarbeit mit Pieter Bots konnten algorithmische Beiträge zur Analyse- und Modellierungssoftware DANA getestet und verbessert werden. Da keine vollständige und zugleich leicht verständliche Einführung zu DANA vorlag, wurde für Nutzer im Rahmen dieser Dissertation eine Anleitung verfasst, die die Modellierung von Wahrnehmungsgraphen und deren Analyse sowie alle Schritte der akteursbasierten Modellierung mit DANA erläutert.
Artificial drainage of agricultural land, for example with ditches or drainage tubes, is used to avoid water logging and to manage high groundwater tables. Among other impacts it influences the nutrient balances by increasing leaching losses and by decreasing denitrification. To simulate terrestrial transport of nitrogen on the global scale, a digital global map of artificially drained agricultural areas was developed. The map depicts the percentage of each 5’ by 5’ grid cell that is equipped for artificial drainage. Information on artificial drainage in countries or sub-national units was mainly derived from international inventories. Distribution to grid cells was based, for most countries, on the "Global Croplands Dataset" of Ramankutty et al. (1998) and the "Digital Global Map of Irrigation Areas" of Siebert et al. (2005). For some European countries the CORINE land cover dataset was used instead of the both datasets mentioned above. Maps with outlines of artificially drained areas were available for 6 countries. The global drainage area on the map is 167 Mio hectares. For only 11 out of the 116 countries with information on artificial drainage areas, sub-national information could be taken into account. Due to this coarse spatial resolution of the data sources, we recommended to use the map of artificially drained areas only for continental to global scale assessments. This documentation describes the dataset, the data sources and the map generation, and it discusses the data uncertainty.
A data set of annual values of area equipped for irrigation for all 236 countries in the world during the time period 1900 - 2003 was generated. The basis for this data product was information available through various online data bases and from other published materials. The complete time series were then constructed around the reported data applying six statistical methods. The methods are discussed in terms of reliability and data uncertainties. The total area equipped for irrigation in the world in 1900 was 53.2 million hectares. Irrigation was mainly practiced in all the arid regions of the globe and in paddy rice areas of South and East Asia. In some temperate countries in Western Europe irrigation was practiced widely on pastures and meadows. The time series suggest a modest rate of increase of irrigated areas in the first half of the 20th century followed by a more dynamic development in the second half. The turn of the century is characterized by an overall consolidating trend resulting at a total of 285.8 million hectares in 2003. The major contributing countries have changed little throughout the century. This data product is regarded as a preliminary result toward an ongoing effort to develop a detailed data set and map of areas equipped for irrigation in the world over the 20th century using sub-national statistics and historical irrigation maps.
The assumption that mankind is able to have an in uence on global or regional climate, respectively, due to the emission of greenhouse gases, is often discussed. This assumption is both very important and very obscure. In consequence, it is necessary to clarify definitively which meteorological elements (climate parameters) are in uencend by the anthropogenic climate impact, and to which extent in which regions of the world. In addition, to be able to interprete such an information properly, it is also necessary to know the magnitude of the different climate signals due to natural variability (for example due to volcanic or solar activity) and the magnitide of stochastic climate noise. The usual tool of climatologists, general circulation models (GCM) suffer from the problem that they are at least quantitatively uncertain with regard to the regional patterns of the behaviour of climate elements and from the lack of accurate information about long-term (decadal and centennial) forcing. In contrast to that, statistical methods as used in this study have the advantage to test hypotheses directly based on observational data. So, we focus to the very reality of climate variability as it has occurred in the past. We apply two strategies of time series analyis with regard to the observed climate variables under consideration. First, each time series is splitted into its variation components. This procedure is called 'structure-oriented time series separation'. The second strategy called 'cause-oriented time series separation' matches various time series representing various forcing mechanisms with those representing the climate behaviour (climate elements). In this way it can be assessed which part of observed climate variability can be explained by this (combined) forcing and which part remains unexplained.
The assumption that mankind is able to have an in uence on global or regional climate, respectively, due to the emission of greenhouse gases, is often discussed. This assumption is both very important and very obscure. In consequence, it is necessary to clarify definitively which meteorological elements (climate parameters) are in uencend by the anthropogenic climate impact, and to which extent in which regions of the world. In addition, to be able to interprete such an information properly, it is also necessary to know the magnitude of the different climate signals due to natural variability (for example due to volcanic or solar activity) and the magnitide of stochastic climate noise. The usual tool of climatologists, general circulation models (GCM) suffer from the problem that they are at least quantitatively uncertain with regard to the regional patterns of the behaviour of climate elements and from the lack of accurate information about long-term (decadal and centennial) forcing. In contrast to that, statistical methods as used in this study have the advantage to test hypotheses directly based on observational data. So, we focus to the very reality of climate variability as it has occurred in the past. We apply two strategies of time series analyis with regard to the observed climate variables under consideration. First, each time series is splitted into its variation components. This procedure is called 'structure-oriented time series separation'. The second strategy called 'cause-oriented time series separation' matches various time series representing various forcing mechanisms with those representing the climate behaviour (climate elements). In this way it can be assessed which part of observed climate variability can be explained by this (combined) forcing and which part remains unexplained.
Mit dem mathematischen Werkzeug zur Filterung von Lärmprozessen, die für die Praktizierung der numerischen Wettervorhersage in ihrer Anfangszeit eine große Rolle gespielt hat, wird an den linearisierten Gleichungen für ein barotropes Flachwassermodell im β-Format die Frage behandelt, wie sich der Rossby-förmige Wellenmodus entwickelt, wenn gleichzeitige Trägheitsschwerewellenmoden infolge von veränderlichen filternden Gleichungen unterdrückt werden.
Zunächst werden einige analytische Grundbeziehungen einer lärmfreien Adjustierung von Anfangsfeldern ausgeführt. Dann richtet sich die Untersuchung auf lärmfilternde prognostische Modellgleichungen (Absch. 5, 6, 7). Aus dieser Analysis in Abhängigkeit von der Filterstufe findet man im Vergleich mit der konventionellen synoptisch-skaligen Rossby-Formel, die der Filterstufe Null entspricht, zum Teil erweiterte Wellengeschwindigkeiten der Rossby-förmigen Physik. Dabei treten sogar unerwartete neue Effekte auf, die wohl primär im Langwellenspektrum zählen.
In dieser Studie wurden stationsbezogene Messdaten der bodennahen Lufttemperatur, des Niederschlages und des Windes in Deutschland und zum Teil auch in Mitteleuropa für den Zeitraum 1901 bzw. 1951 bis 2000 im Hinblick auf Änderungen ihres Extremverhaltens untersucht. Hierfür wurde ein bimethodischer Ansatz gewählt. Die als Methode I bezeichnete "zeitlich gleitende Extremwertanalyse" definiert für den betrachteten (gleitenden) Zeitraum feste Schwellen. An die Zeitreihen der Schwellenüber- bzw. Unterschreitungen wurden sowohl empirische, als auch theoretische Häufigkeitsverteilungen angepasst, aus denen extremwert-theoretische Größen wie Wartezeitverteilung, Wiederkehrzeit und Risiko abgeleitet wurden. Die Methode II der "strukturorientierten Zeitreihenzerlegung" sucht, basierend auf einer zugrundegelegten theoretischen Verteilung, nach zeitabhängigen Parametern der zugehörigen Wahrscheinlichkeitsdichte. Hierdurch lassen sich zeitabhängige Wahrscheinlichkeiten für das Über- bzw. Unterschreiten von Schwellen angeben. Die gleitende Analyse zeigt bei Niederschlagsmonatsdaten in ganz Deutschland für untere Schranken einen Trend zu seltenerem Auftreten von Extremereignissen. Bei oberen Schranken ist hingegen im Osten einen Trend zu seltenerem, im Westen einen Trend zu häufigerem Auftreten von Extremereignissen zu erkennen. Im Osten ergibt sich also insgesamt ein Trend zu weniger extremen Monatsniederschlagssummen, im Westen ein Trend zu höheren onatsniederschlagssummen. Bei den Niederschlagstagesdaten, bei denen nur die Untersuchung oberer Schranken sinnvoll ist, sind die Ergebnistrends denen der Niederschlagsmonatsdaten in ihrer regionalen Verteilung ähnlich. Allerdings sind die Trends hier schrankenabhängig. Insbesondere in Norddeutschland ergibt sich dabei für relativ niedrige Schranken ein Trend zu kleineren Überschreitungshäufigkeiten, für hohe Schranken hingegen ein Trend zu größeren Überschreitungshäufigkeiten. Damit ergibt sich insgesamt ein Trend zu extremeren Tagesniederschlägen. Bei den Temperaturdaten zeigen die Ergebnisse der gleitenden Analyse der Monatsdaten mit wenigen Ausnahmen ein selteneres Unterschreiten unterer Schranken (also: Kälteereignis). Dieses Verhalten ist bei den Temperaturtagesdaten sogar flächendeckend zu beobachten. Für obere Schranken (also: Hitzeereignis) ergibt sich im allgemeinen ein Trend zu häufigerem Auftreten von Extremereignissen. Allerdings ist dieser Trend nicht flächendeckend zu beobachten. Vielmehr gibt es in allen Regionen Deutschlands einzelne Stationen, bei denen ein Trend zu seltenerem Überschreiten oberer Schranken festzustellen ist. Bei der "strukturorientierten Zeitreihenzerlegung" wurden folgende Ergebnisse erzielt: Die Wahrscheinlichkeitsdichten der monatlichen und saisonalen Temperatur-Daten weisen überwiegend positive Trends im Mittelwert auf, die Streuung hat sich hier nur in Ausnahmefällen verändert. Dies führte zu teilweise deutlich gestiegenen Wahrscheinlichkeiten für besonders warme Monats- und saisonale Mittel im 20. Jh. (Ausnahme: Herbst im Datensatz 1951 bis 2000). Entsprechend sanken in diesem Zeitraum verbreitet die Wahrscheinlichkeiten für extrem kalte Monats- und saisonale Mittel. Ebenso stiegen dieWahrscheinlichkeiten für Häufigkeiten von besonders warmen Tagen (über dem 10%-Perzentil) ab 1951 in allen Jahreszeiten, besonders im Winter für die Tagesmaximum-Temperaturen. Dies korrespondiert mit einer beschleunigten Häufigkeits-Abnahme von besonders kalten Tagen in allen Jahreszeiten, besonders in Süddeutschland. Beim Niederschlag dominieren ausgeprägt jahreszeitliche Unterschiede: Im Winter findet sich sowohl ein Trend zu höheren Monats- und saisonalen Summen, als auch eine erhöhte Variabilität, was verbreitet zu einer deutlichen Zunahme von extrem hohen Niederschlagssummen in dieser Jahreszeit führt. Im Sommer hingegen wurde ein Trend zu einer verringerten Variabilität gefunden, wodurch auch extrem hohe monatliche und saisonale Niederschlagssummen in weiten Teilen Mitteleuropas in dieser Jahreszeit seltener geworden sind. Entsprechend haben Tage mit hohen (über dem 10%-Perzentil) und auch extrem hohen (über dem 5%- und 2%-Perzentil) Niederschlagssummen im Sommer verbreitet abgenommen, in den anderen Jahreszeiten (vor allem im Winter und in Westdeutschland) jedoch zugenommen. Beim Wind sind die Ergebnisse recht uneinheitlich, so dass hier eine allgemeine Charakterisierung schwer fällt. Tendenziell nehmen die Häufigkeiten extremer täglicher Windmaxima im Winter zu und im Sommer ab. Dies gilt jedoch nicht für küstennahe Stationen, wo auch im Winter oft negative Trends extremer Tagesmaxima beobachtet wurden - In Süddeutschland hingegen finden sich auch im Sommer positive Trends in den Häufigkeiten extrem starker Tagesmaxima. Jedoch sind die untersuchten Daten (Windmaxima über Beaufort 8 und mittlere monatliche Windgeschwindigkeiten) wahrscheinlich mit großen Messfehlern behaftet und zudem für die hier durchgeführten Analysen nur bedingt geeignet. Es hat sich somit gezeigt, dass das Extremverhalten von Klimaelementen, wie Temperatur und Niederschlag, im 20. Jhr. sehr starken Änderungen unterworfen war. Diese Änderungen im Extremen wiederum sind sehr stark von Änderungen des "mittleren" Zustandes dieser Klimaelemente abhängig, welcher durch statistische Charakteristika wie Mittelwert und Standardabweichung (bzw. allgemeiner Lage und Streuung) beschrieben werden kann.
The Global Irrigation Model (GIM) is used within the framework of the global hydrological model WaterGAP to calculate monthly irrigation crop water use. Results on a 0.5 degrees grid include, consumption (ICU) and, via division by irrigation efficiencies, water withdrawal (IWU). The model distinguishes up to two cropping periods of rice and non-rice crops, each grown for 150 days, using a grid of area equipped for irrigation (AEI). Historical development of AEI and fraction of area actually irrigated (AAI) was previously considered via scaling of cell-specific results with country-specific factors for each year. In this study, GIM was adapted to use the new Historical Irrigation Data set (HID) with cell-specific AEI for 14 time slices between 1900 and 2005. AEI grids were temporally interpolated, and using the optional grid of AAI/AEI, results for years 1901-2014 were generated (runs "HID-ACT"). Thus, new installation or abandonment of irrigation infrastructure in new grid cells can be represented in a spatially explicit manner. For evaluated years 1910, 1960, 1995, and 2005, ICU from HID-ACT was superior to country-specific scaled results (run "HID-ACTHIST") in representing historical development of the spatial pattern. Compared to US state-level reference data, spatial patterns were better, while country totals were not always better. For calculating the cropping periods, 30-years climate means are needed, the choice of which is relevant. Four chosen periods before 1981-2010 all resulted in considerable, pertaining changes of ICU spatial pattern, and various percent changes in country totals. This might be because of already present climate change.