Refine
Year of publication
- 2006 (39) (remove)
Document Type
- Working Paper (39) (remove)
Language
- German (39) (remove)
Is part of the Bibliography
- no (39)
Keywords
- Deutschland (7)
- Deutsche Bundesbank (2)
- Europäische Zentralbank (2)
- Aktie (1)
- Alexander von (1)
- Arbeitsbewertung (1)
- Arbeitslosengeld II (1)
- Arbeitslosenversicherung (1)
- Armut (1)
- Ausland (1)
Institute
- Rechtswissenschaft (14)
- Wirtschaftswissenschaften (8)
- Institute for Monetary and Financial Stability (IMFS) (3)
- Extern (2)
- Center for Financial Studies (CFS) (1)
- Geowissenschaften (1)
- Gesellschaftswissenschaften (1)
- Institut für sozial-ökologische Forschung (ISOE) (1)
- Medizin (1)
- Zentrum für Nordamerika-Forschung (ZENAF) (1)
Das Potsdamer Manifest ist ein inspirierender und zugleich irritierender Text. Er hat einen spezifischen Entstehungskontext, die Autoren intervenieren damit in eine politisch-intellektuelle Debatte, laden zum Weiterdenken ein und wollen viel bewirken. Ich habe das Manifest aus diesem Kontext gelöst und es in Beziehung zur eigenen Arbeit gesetzt. Meine Lektüre erfolgt also aus einem recht engen Blickwinkel. Ich arbeite seit vielen Jahren im Frankfurter Institut für sozial-ökologische Forschung im Grenzbereich zwischen Natur- und Sozialwissenschaften. Aus dieser Perspektive ist die Frage besonders interessant, wie in dem Manifest das Verhältnis zwischen menschlichgesellschaftlichen Lebenszusammenhängen und der belebten und unbelebten Natur gesehen und beschrieben wird. Auf diese Frage werde ich mich konzentrieren.
Eine unübersehbare Menge neuer Anglizismen findet über Fach- und Gruppensprachen Eingang in die deutsche Alltagssprache, in der ein Teil von ihnen inzwischen seinen festen Platz hat. […] Insbesondere in den Bereichen der Lautung und der Schreibung bleibt bei den neueren Entlehnungen oberflächlich eine große Nähe zu gebersprachlichen Strukturen erhalten. Diese Entwicklung wird von einigen Fachleuten und Politikern […] als Indiz für eine schleichende ‚Kolonialisierung’ der deutschen Sprache durch das Englische herangezogen. [...] Dieser Einschätzung widersprechen zahlreiche Organe […] und Autoren […] ausdrücklich. […] Im Kontext dieser Auseinandersetzung ist die vorliegende Arbeit verortet. Ihr Ziel ist es zu zeigen, daß die Sprecher des Deutschen Anglizismen sehr wohl phonologisch, graphematisch und morphologisch in die deutsche Sprache integrieren. Untersuchungsgegenstand sind mehrgliedrige Verben, die aus dem Englischen entlehnt wurden und überwiegend in Fach- und Gruppensprachen und/oder in informellem, vorwiegend mündlichem Text auftreten. Für das Problemfeld der verbalen Wortbildung wird dargelegt, daß morphologische Integration nicht unsystematisch erfolgt, sondern sich an den Flexionsmustern deutscher komplexer Verben orientiert. Der Integrationsgrad der einzelnen Lexeme ist dynamisch und sprecherabhängig.
Das vorliegende Arbeitspapier analysiert die sich in Westmittelfranken konzentrierende Kunststoff verarbeitende Industrie. Im Mittelpunkt der Analyse stehen die Wertschöpfungsprozesse der Unternehmen und damit verbunden unterschiedliche Interaktionsformen und Vertragsbeziehungen innerhalb der Branche. Die Arbeit diskutiert, ob es sich bei der regionalen Konzentration der Branche um ein sogenanntes Cluster handelt, aus dem Unternehmen Synergien bei der Wertschöpfung und unternehmerische Wettbewerbsvorteile gewinnen können. Die Analyse ist Teil eines Forschungsprojektes zum Thema „Innovationsfinanzierung im Mittelstand“ am Institut für Humangeographie (Abteilung Wirtschaftsgeographie) der Johann Wolfgang Goethe-Universität Frankfurt.
Die vorliegende Untersuchung der effektiven Stundenlöhne in Deutschland erfolgte im Hin-blick auf die Frage nach der Ungleichheit ihrer Verteilung und der Einhaltung eines Kriteri-ums minimaler Leistungsgerechtigkeit. Ausgangspunkt ist die Annahme eines komplexen Gerechtigkeitsempfindens in der Gesellschaft, das neben dem Marktmechanismus als einem Motor für Leistung und leistungsabhängige Einkommen auch individuelle Anstrengungen sowie die Folgen faktischer Marktunvollkommenheiten bzw. faktischen Marktversagens berücksichtigt. Zur Approximation der ergänzenden Aspekte von Leistungsgerechtigkeit wird an relative Lohnpositionen angeknüpft: Lohneinkommen, die einen gesellschaftlichen Mittelwert sehr weit – bezogen auf den Durchschnitt um mehr als die Hälfte, und alternativ bezogen auf den Median um mehr als ein Drittel – unterschreiten, gelten als Indikator für Zielabweichungen. Implizit wird damit unterstellt, dass individuelle Leistungsunterschiede begrenzt, die aus dem Marktmechanismus folgende Differenzierungen aber grenzenlos sind. Die sich aus dem hier gewählten Kriterium ergebenden Niedriglohngrenzen entsprechen ungefähr alternativ abgeleiteten Grenzwerten, die aus der Norm folgen, dass eine Vollzeiterwerbstätigkeit mindestens das eigene sozio-kulturelle Existenzminimum zuzüglich einer Leistungskomponente sichern sollte. Neben dem Aspekt minimaler Leistungsgerechtigkeit für den unteren Rand der Verteilung werden keine weiteren konkreten Normen zur Beurteilung der Zielangemessenheit der beobachteten Verteilung der Lohnsätze gesetzt. Dies würde den Rahmen dieser Untersuchung sprengen. Die empirische Analyse auf Basis des Sozio-ökonomischen Panels (SOEP) und der Einkommens- und Verbrauchsstichprobe (EVS) konzentriert sich auf das Jahr 2003 und wird ergänzt um einige Auswertungen für 1998, die allerdings nur mit dem SOEP durchgeführt werden können. Obwohl aus dem SOEP generell eine größere Ungleichheit der Verteilung resultiert, halten sich die Unterschiede zwischen den Ergebnissen beider Datenquellen in Grenzen. ...
Zusammenfassung und Schlussfolgerungen Die verschiedenen Alternativrechnungen zur Bemessung des Eckregelsatzes auf Basis der Daten der EVS 2003 und der normativen Setzungen der derzeit gültigen Regelsatzverordnung (RSV) haben zu Beträgen leicht über (Variante 1b) bis mäßig unter (Variante 4b) dem gegenwärtigen Satz von 345 Euro geführt. Da sich aus einer kritischen Betrachtung der grundlegenden Vorentscheidungen, auf denen die RSV aufbaut, einige fragwürdige bzw. nicht konsistente Einzelregelungen ergeben haben, erscheint das seit 2005 gültige Niveau des gesetzlich anerkannten Existenzminimums als tendenziell zu gering, zumal der Eckregelsatz auch für den Leistungsanspruch von Familien mit Kindern maßgeblich ist. Darüber hinaus ist zu bedenken, dass die Herausnahme der Sozialhilfebezieher aus der Referenzgruppe gemäß RSV unter theoretischen Gesichtspunkten nicht hinreichend ist, um Zirkelschlüsse - vom Ausgabeverhalten der Hilfebedürftigen auf deren Existenzminimum - zu vermeiden. Denn nur etwa die Hälfte bis drei Fünftel der Bedürftigen nehmen ihre HLu-Ansprüche wahr, die weiteren Anspruchsberechtigten leben in verdeckter Armut. Die Referenzgruppe zur Ermittlung des sozio-kulturellen Existenzminimums müsste also auch um die so genannte Dunkelziffer der Armut (Personen in verdeckter Armut) bereinigt werden, was vermutlich zu einem leicht erhöhten (regelsatzrelevanten) Ausgabenniveau führen und Forderungen nach einer moderaten Anhebung des Eckregelsatzes unterstreichen würde. Abschließend soll der letztlich normative Charakter jeglicher Definition des Existenzmi-nimums nochmals verdeutlicht werden, aus dem die Notwendigkeit einer gesellschaftspoliti-schen Diskussion dessen, was ein menschenwürdiges Dasein und Chancengerechtigkeit - nicht nur im formalen, sondern im materiellen Sinne - ermöglicht, folgt. Dass mit dem so genannten Statistik-Modell der Regelsatzbemessung keineswegs Objektivität bzw. Wertur-teilsfreiheit, eher nur Überprüfbarkeit oder Nachvollziehbarkeit erreicht wird, haben die An-merkungen zu den regelsatzrelevanten Anteilssätzen einzelner Ausgabenpositionen in Kapitel 3.2 gezeigt. Wie stark der Einfluss normativer Vorentscheidungen auf das Niveau des sozio-kulturellen Existenzminimums ist, zeigt sich aber bereits in der Auswahl der Alleinstehenden als Referenzgruppe. Damit wird bei der Analyse des regelsatzrelevanten Ausgabeverhaltens auf eine Gruppe Bezug genommen, die überdurchschnittlich von relativer Einkommensarmut betroffen ist.13 Alternativ könnten auch die Paarhaushalte ohne Kinder mit ihrem vergleichs-weise geringen Armutsrisiko als Referenzgruppe definiert werden. Nach einer ersten Abschätzung ergibt sich für das unterste Quintil von Paaren ohne Kind ein regelsatzrelevanter Konsum in Höhe von gut 700 Euro; bei gegebenen Regelsatzproportionen folgt daraus ein Existenzminimum (ohne Kosten für Unterkunft und Heizung) von gut 390 Euro gegenüber derzeit 345 Euro bei Alleinstehenden und von etwa 1.130 Euro gegenüber 828 Euro bei Paa-ren mit einem Kind. Mit diesem Beispiel ist nicht die Empfehlung einer entsprechend starken Leistungsanhebung verbunden, sondern lediglich ein Hinweis darauf, dass das derzeitige Ver-fahren der Regelsatzbemessung restriktiv angelegt ist und mit aktuellen Daten eher eine Er-höhung als eine Absenkung des Niveaus des Existenzminimums begründet werden kann.
Sozialpolitische Auseinandersetzungen kursieren gegenwärtig verschärft um die Gestaltung der Sicherung des sozio-kulturellen Existenzminimums, um eine angebliche "Kostenexplosion" bei der Grundsicherung für Arbeitsuchende und um Vermutungen über verbreiteten Leistungsmissbrauch. Der Blick ist also stark auf die staatlicherseits auf Basis des Sozialgesetzbuches (SGB) über Transfers "zu bekämpfende" und "bekämpfte" Armut gerichtet. Vor diesem Hintergrund sollen die auf relative Grenzen – 50% des arithmetischen Mittels oder 60% des Medians der Nettoäquivalenzeinkommen – bezogenen Studien über Armut in Deutschland um eine Armutsanalyse ergänzt werden, die den Einkommensbereich unterhalb des gesetzlichen Existenzminimums in den Fokus nimmt. In der folgenden Untersuchung geht es nicht nur um die Größe der edürftigenBevölkerungsgruppe insgesamt, sondern darüber hinaus um die Bedeutung von Ursachen der Hilfebedürftigkeit – Arbeitslosigkeit, Teilzeiterwerbstätigkeit, niedriges Erwerbseinkommen, Alter –, um geschlechtsspezifische Unterschiede und um die Betroffenheit von Kindern. Hier fehlt es bisher an zeitnahen empirischen Informationen. Daten über die Zahl und Struktur der Empfänger von Grundsicherungsleistungen – also von Arbeitslosengeld II (Alg II) bzw. Sozialgeld, Grundsicherung im Alter und bei Erwerbsminderung oder Hilfe zum Lebensunterhalt (HLu) der Sozialhilfe – vermitteln nur die "halbe Wahrheit". ...
Chiromantie (Handlesekunst) : Erfurt, Universitätsbibliothek, Dep. Erf. CA. 4° 21, f. 127v-131r
(2006)
Die Kunst, aus der Hand zu lesen, konnte im Mittelalter als ein Zweig der Physiognomie aufgefasst werden, der Wissenschaft von der Kunst, die Wesensart eines Menschen aus seiner leiblichen Erscheinung herauszulesen. Teils stand die Wissenschaftlichkeit der Chiromantik aber auch in Frage: wenn nämlich dem Menschen über seinen Charakter hinaus auch seine Zukunft aus der Hand gelesen werden sollte. So lehnte der 1439 in Padua zum Doktor der Freien Künste und der Medizin promovierte Johannes Hartlieb 1456 in seinem ,Buch aller verbotenen Künste' einerseits die Chiromantik als sünd, verpoten und ain rechter ungelaub ab, obwohl andererseits ein Ende der siebziger Jahre aufgelegtes Blockbuch eben Hartlieb als Verfasser einer deutschen Chiromantie auftreten lässt, die er schon 1448 der Gemahlin Herzog Albrechts 111. von Bayern gewidmet haben soll.
Die spätantiken ,Disticha Catonis', von einem unbekannten Autor im 3./4. Jahrhundert verfasst, dienten seit karolingischer Zeit dem Unterricht in der gramatica. Dort hielten sie dem Lateinschüler sprachliches Anschauungsmaterial ebenso bereit wie, das war dem mittelalterlichen Trivialunterricht nicht minder wichtig, elementare Verhaltenslehre in leicht memorierbarer Form. So unterweisen die circa 140 Hexameterdistichen aus einer vulgärstoizistischen Grundhaltung heraus etwa im rechten Umgang mit Besitz, mit den eigenen Affekten, mit Leid und Tod, oder wie man sich Fremden, Freunden oder der eigenen Frau gegenüber verhalten soll. Der Bestand der Distichen wurde bereits in mehreren vorkarolingischen Redaktion auf vier Bücher verteilt und um Prosasentenzen (breves sententiae) vor Buch I und metrische Vorreden zu Buch II-IV erweitert. Eine das Werk eröffnende, knappe Prosavorrede (praefatio) ist einem sorgenden Vater in den Mund gelegt, der die Lehren seinem geliebten Sohn ans Herz legt.
Dem konjunktiven Erfahrungsraum, dessen Konjunktivität und Räumlichkeit zur Voraussetzung haben, dass Erfahrung im Bezug auf ein „Du“ gemacht wird, ist hier der disjunktive Erfahrungsraum gegenübergestellt. Konkretisiert man den Erfahrungsraum als Raum ästhetischer Erfahrung, so wäre der disjunktive Erfahrungsraum prototypisch für diese Erfahrungsform – zumindest für die Betrachtung des ästhetischen Erfahrens der Literatur: Der Leser ist allein mit einem Buch / einem Text. Bezogen auf das Analyseobjekt wird der konjunktive Erfahrungsraum bei Dirck Linck im Zusammenhang mit einem „Verschwinden“ ästhetischer Erfahrung von Literatur betrachtet – dies im Falle der Beat- und Pop-Literatur der 1960er Jahre.
Der "Kosmos" ist das letzte Buch des 1859 in seinem neunzigsten Lebensjahr in Berlin verstorbenen Gelehrten, in deutscher Sprache geschrieben und in fünf Bänden 1845 bis 1862 in Stuttgart und Tübingen veröffentlicht. Die Frankfurter Edition von 2004 präsentiert die erste vollständige Ausgabe seit dem neunzehnten Jahrhundert und die erste vollständige Neu-Edition des Humboldtschen Originaltextes überhaupt. Der Kosmos wird erstmalig ausschließlich so aufgelegt, wie er von seinem Autor geschrieben und publiziert wurde. Das bedeutet: Es werden nur die Teile aufgenommen, die tatsächlich von Humboldt selbst stammen. Korrekturen und Ergänzungen, die vom Urheber vorgenommen oder autorisiert wurden, indem sie in den zu Lebzeiten erschienenen Bänden vermerkt sind, wurden ausgeführt beziehungsweise übernommen. Im Anhang nachgereichte Korrekturen und Ergänzungen anderer Autoren aus dem posthumen fünften Band wurden dagegen nicht ein- beziehungsweise umgesetzt. Ausgangspunkt ist der Stand der allerersten Auflage, Maßstab der vom Verfasser selbst hergestellte Text. Die Edition bietet zum ersten Mal den reinen Humboldtschen Ur-Kosmos. Humboldts berühmtestes Werk ist hier tatsächlich in einem Band vereint: ”die ganze Welt in einem Buch”.
Zusammenfassung der Ergebnisse: 1. Europäische Zentralbank und Bundesbank erfüllen im Wesentlichen hoheitliche Aufgaben. 2. Die Erfüllung hoheitlicher Aufgaben darf nicht dazu dienen, den allgemeinenStaatsbedarf zu finanzieren. Akzidentiell anfallende Erlöse können jedoch imHaushalt vereinnahmt werden. 3. Die gesetzliche Anordnung, Bundesbankgewinne an den Bund abzuführen(§ 27 BBankG), ist mit den finanzverfassungsrechtlichen Maximen der Staatsfinanzierung vereinbar. Es liegt auch kein Verstoß gegen das Steuerstaatsprinzip vor. 4. Ertragsgesichtspunkte dürfen aber keinesfalls und in keiner Weise in die Entscheidungen einfließen, mit denen hoheitliche Aufgaben erfüllt werden. 5. Die Vereinnahmung von Bundesbankgewinnen durch den Bund stellt keine Kreditaufnahme dar, die im Rahmen der Verschuldungsgrenzen des Art. 115 Abs. 1 GG zu berücksichtigen wäre. 6. Weder die Bundesregierung noch der Bundestag haben die Kompetenz, auf die Komponenten einzuwirken, die zur Entstehung des Bundesbankgewinns führen. Dafür ist ausschließlich das Europäische System der Zentralbanken zuständig, soweit währungspolitische Gesichtspunkte betroffen sind. 7. Das gilt insbesondere auch für die Entscheidung über den Verkauf von Gold oder Devisenreserven. Es besteht keinerlei Anrecht des Bundes auf diese Vermögensgegenstände, solange die Bundesbank besteht. 8. Einwirkungen dieser Art sind mit der europarechtlich und verfassungsrechtlich garantierten Unabhängigkeit der Zentralbanken nicht zu vereinbaren. Schon der bloße Versuch einer Beeinflussung ist verboten, Art. 108 EGV und Art. 88 Satz 2 GG. 9. Die gesetzlichen Vorschriften über die Gewinnabführung verstoßen als solche derzeit aber noch nicht gegen höherrangiges Recht, auch wenn sie starke Anreize für die Politik schaffen, sich über die Unabhängigkeitsgarantien hinwegzusetzen. 10. Die Bundesbank darf sich nicht aus währungspolitischen Erwägungen weigern, den zur Ausschüttung bereitstehenden Gewinn auszuzahlen. 11. Der unmittelbare Einsatz des Gewinns zur Schuldentilgung würde alle Bedenken im Hinblick auf die Unabhängigkeitsgarantie beseitigen.
Zusammenfassung der Ergebnisse: 1. Das Gemeinschaftsrecht garantiert durch Art. 108 EGV umfassend die Weisungsfreiheit der Europäischen Zentralbank und der nationalen Zentralbanken als Institution.. Diese Garantie erfasst auch die natürlichen Personen, die Mitglieder der Entscheidungsgremien sind. 2. Hinzu treten weiter Regelungen des Gemeinschaftsvertrages und der Satzung von ESZB und EZB, welche diese Garantie zu einer allgemeinen Unabhängigkeitsgarantie ausbauen und verstärken. 3. Garantiert ist vor allem auch die persönlicher Unabhängigkeit der Mitglieder in den Entscheidungsgremien. 4. Von wenigen Ausnahmen abgesehen, sind diese Regelungen für das sekundäre Gemeinschaftsrecht unantastbar. Als Teil des primären Gemeinschaftsrechts können sie prinzipiell nur durch Vertragsänderung, also einstimmig verändert werden. 5. Diese europarechtlichen Garantien werden über Art. 88 Satz 2 GG für die Bundesbank als integrales Bestandteil des ESZB in das deutsche Verfassungsrecht transponiert. Daraus ergibt sich eine „gemeinschaftsrechtlich vermittelte verfassungsrechtliche Unabhängigkeitsgarantie“ für die Bundesbank. 6. Die Regelung ist mit dem Demokratieprinzip vereinbar. 7. Änderungen der umfassenden Garantie können die verfassungsrechtlichen Voraussetzungen für die Übertragung der währungs- und notenbankpolitischen Befugnisse auf das ESZB entfallen lassen. 8. Der Entwurf einer Verfassung für Europa enthält keine verfassungsrechtlich relevanten Relativierungen der Unabhängigkeitsgarantie. 9. Das Ziel der Preisstabilität hat den ihm gebührenden Rang behalten. Bei genauer Analyse zeigt sich auch, dass sein besonderer Rang für die Tätigkeit des ESZB nicht beeinträchtigt ist. 10. Ein Vergleich der verschiedenen sprachlichen Fassungen des Verfassungsvertrages zeigt auch, dass – entgegen dem deutschen Text – die EZB nicht als – möglicherweise weniger unabhängiges - Organ der EU, sondern als sonstige Einrichtung eingestuft worden ist.
In Ergänzung zu einem vorangegangenen Projekt (Schönwiese et al., 2005) ist in der vorliegenden Studie eine weitere extremwertstatistische Untersuchung durchgeführt worden. Dazu wurden auf der Basis von täglichen Klimadaten aus Hessen und Umgebung (49°N bis 52°N, 7°O bis 11°O), und zwar der Temperatur von 53 Stationen und des Niederschlages von 84 Stationen, Schwellen extremer Werte definiert, um die Anzahl der Über- bzw. Unterschreitungen dieser Schwellen auf signifikante Trends hin zu untersuchen. Bei der Temperatur findet sich dabei eine systematische Zunahme von Hitzetagen (Maximumtemperatur über 30 °C) im August, wohingegen im Juli fast keine, und im Juni nur vereinzelt signifikante Zunahmen von Hitzetagen gefunden wurden. Hierbei zeigt sich, wie auch bei anderen Temperatur-Schwellen eine Abnahme der Signifikanz mit zunehmender Schwellenhöhe, was durch selteneres Auftreten besonders extremer Ereignisse verursacht wird. Im Winter und Frühjahr hat entsprechend die Anzahl der Frost- bzw. Eistage (Minimum- bzw. Maximumtemperatur unter 0 °C) signifikant abgenommen. Besonders ausgeprägt ist dies für die Frosttage im Frühling der Fall. Beim Niederschlag hat im Sommer, wiederum vor allem im August, die Anzahl von Trockentagen zugenommen. Extrem hohe Niederschlagssummen sind dagegen in dieser Jahreszeit seltener geworden, in den anderen Jahreszeiten jedoch häufiger. Vor allem der März zeichnet sich durch verbreitet hochsignifikante Zunahmen von Tagen mit Starkniederschlägen aus. Die Erhaltungsneigung von besonders warmen bzw. kalten Witterungen hat sich in den meisten Monaten nicht signifikant verändert. Es ist jedoch eine Neigung zu kürzeren relativ einheitlichen Witterungsabschnitten im Februar und März, sowie zu längeren im Oktober und November zu beobachten. Diese Ergebnisse sind jedoch vermutlich nicht sehr robust, da sich bei einer Verkürzung des Zeitfensters der Autokorrelationsfunktion die Signifikanzen teilweise (vor allem im April) deutlich verändern. Bei den Trends der Zahl der Trockenperioden erkennt man im Sommer einen positiven Trend; sie nehmen somit zu. Dies gilt sowohl für die 7-tägigen als auch für die 11-tägigen Trockenperioden. Die übrigen Jahreszeiten zeigen bei den 7-tägigen Trockenperioden nur schwache oder negative Trends. Bei den 11-tägigen Trockenperioden gilt dies nur für das Frühjahr und den Herbst, im Winter sind die Trends im Norden überwiegend positiv, im Süden negativ. Betrachtet man die Länge der längsten Trockenperioden, so nimmt diese im Sommer zu, im Frühjahr und im Gesamtjahr jedoch ab. Im Herbst ist das Bild uneinheitlich; dies kann aber auch daran liegen, dass lange sommerliche Trockenperioden in den Herbst hineinreichen und dann dort gezählt werden. Ein weiterer Aspekt ist die Analyse der Anzahl und Länge bestimmter Witterungsabschnitte (Clusteranalyse), die durch relativ hohe oder tiefe Temperatur bzw. relativ wenig bzw. viel Niederschlag definiert sind. So können beispielsweise Tage mit weniger als 1 mm Niederschlag als Trockencluster bezeichnet werden. Dabei erkennt man im Sommer einen Trend zu mehr Trockenclustern,in Übereinstimmung mit den oben genannten Ergebnissen, in den übrigen Jahreszeiten und im Gesamtjahr jedoch einen Trend zu weniger Trockenclustern. Innerhalb des Sommers ist dieser Trend im August am stärksten, in den übrigen Jahreszeiten im März, Oktober und Dezember. Bei den Clustern von Feuchteereignissen, das heißt Tagen mit relativ viel Niederschlag, ist das Bild umgekehrt. Im Sommer nimmt deren Zahl ab, ansonsten nimmt sie zu. Die stärksten Trends sind dabei wiederum im August (Abnahme) bzw. im März, Oktober und Dezember (jeweils Zunahme) zu erkennen. Alle diese Trends werden im der Regel umso schwächer, je höher die Schranke der Niederschlagsmenge gewählt wird. Bei den Temperaturdaten sind die Trends von Frost- und Eistagen nur im November überwiegend positiv, in allen Wintermonaten (Dezember, Januar und Februar) jedoch fast ausschließlich negativ. Darin spiegelt sich somit der Trend zu höheren Temperaturen wider. Bei den Wärmeclustern ändern sich die Trends mit der Höhe der Schranke. Bei der Schranke von 25°C zeigen der Juli, insbesondere aber der August positive Trends. Bei der 30°C-Schranke bleibt der Augusttrend positiv, der Julitrend wird dagegen negativ. Bei der Schranke von 35°C werden die Augusttrends dann deutlich geringer, während die Julitrends, wenn auch schwächer ausgeprägt, negativ bleiben. Die Trends im Juni sind dagegen insgesamt schwach. Betrachtet man die Signifikanz der Trends, so sind insbesondere die Trends bei hohen Schranken weniger signifikant. Dies gilt für die hohen Niederschlagschranken (20mm, 30mm, 95%-Perzentil, 99%-Perzentil) ebenso wie für die hohen Temperaturschranken (30°C, 35°C). Weiterhin ist die Signifikanz dann niedrig, wenn die Zahl der Cluster im betrachteten Zeitraum klein ist. In Monaten und Jahreszeiten, in denen nur wenige Cluster auftreten, ist der Trend der Zahl der Cluster meist nicht signifikant. Insgesamt zeigen beim Niederschlag die untere Schranke von 1mm sowie die oberen Schranken von 10mm und 90% die signifikantesten Trends. Bei den Temperaturdaten ist das bei den Frosttagen generell, bei den Eistagen im Januar und Februar sowie bei den sommerlichen Clustern mit einer Tagesmaximumtemperatur von über 25°C der Fall (mit zum Teil über 95% bzw. 99% Signifikanz).
Die erstmalige Übertragung der Regierungsverantwortung im Jahr 1998 an eine Koalition aus SPD und Bündnis90/Die Grünen auf der Bundesebene hat Erwartungen geweckt, dass sich die gesundheitspolitische Ausrichtung stärker an den Interessen von Patientinnen und Patienten orientierten würde als bisher üblich. Die Dominanz der Opposition im Bundesrat jedoch erforderte eine große Reformkoalition, um strukturelle Veränderungen im deutschen Gesundheitswesen durchsetzen zu können. Die Analyse politischer Dokumente und der wichtigsten Gesetzesvorhaben seit dem Beginn der rot-grünen Regierungskoalition zeigt, dass einerseits die individuellen und kollektiven Beteiligungsrechte von Patienten und Patientinnen sowie Patientenverbände gestärkt wurden, andererseits aber auch die finanziellen Belastungen von Erkrankten durch erhöhte Zuzahlungen und vermehrte Leistungsausgrenzungen gestiegen sind. Gemessen an den hohen Standards der Weltgesundheitsorganisation sind daher die Ergebnisse der rot-grünen Regierungszeit als ambivalent zu bewerten.
Wir untersuchen, in welchem Ausmaß die Aktien deutscher Unternehmen im Zeitverlauf an ausländischen Börsen gehandelt werden. Es zeigt sich – nach anfänglich bedeutsamer Handelsaktivität im Ausland – ein ausgeprägter Rückfluss-Effekt nach Deutschland. Zweitnotierungen an ausländischen Börsen dienen der Verbreiterung der Aktionärsbasis und somit der Senkung der Kapitalkosten und letztendlich der Steigerung des Unternehmenswertes. Dazu ist ein ausreichendes Handelsvolumen an der ausländischen Börse unabdinglich. Daran gemessen sind die Auslandsnotierungen deutscher Unternehmen nicht erfolgreich. Dies ist jedoch nicht im gleichen Ausmaß für alle Unternehmen der Fall. Kleinere, wachsende Unternehmen und Unternehmen mit höherem Anteil des Auslandsumsatzes am Gesamtumsatz werden relativ stärker im Ausland gehandelt.
This paper provides new insights into the nature of loan securitization. We analyze the use of collateralized loan obligation (CLO) transactions by European banks from 1997 to 2004 andtry to identify the influence that various firm-specific and macroeconomic factors may have on an institution's securitization decision. We find that not only regulatory capital arbitrage under Basel I has been driving the market. Rather, our results suggest that loan securitization is an appropriate funding tool for banks with high risk and low liquidity. It may also have been used by commercial banks to indirectly access investment-bank activities and the associated gains.