Refine
Year of publication
Document Type
- Working Paper (108)
- Article (73)
- Review (63)
- Book (49)
- Report (37)
- Part of a Book (25)
- Part of Periodical (12)
- Doctoral Thesis (11)
- Magister's Thesis (4)
- Conference Proceeding (2)
Language
- German (388) (remove)
Has Fulltext
- yes (388)
Keywords
- Deutschland (388) (remove)
Institute
Dies ist der fünfte Artikel unseres Blogfokus „Salafismus in Deutschland“.
Dschihadismus ist keine neue Erscheinung in Deutschland, und schon gar nicht in Europa. Erinnert sei beispielsweise an drei der 9/11-Attentäter, die in Hamburg lebten und konspirierten, an die Mitglieder der so genannten Sauerlandzelle und die Anschläge von Madrid 2004 und London 2005. Seit Jahren werden immer wieder neue Gesichter des Terrors vor Richter und Kamera geführt. Seit der Entstehung des „Islamischen Staates“ (IS) ändert sich jedoch nicht nur die Art wie Terroristen kommunizieren und mobilisieren, sondern auch ihre Motivation. Sowohl die IS Propaganda als auch die individuellen Motivationen werden durch subkulturelle Merkmale gekennzeichnet: ästhetische, Audio- und Videoelemente – zum Teil westlicher Natur –, die inspirieren und motivieren sollen, sowie Abenteuerlust, Provokation und Widerstand....
Dies ist der siebte Artikel unseres Blogfokus „Salafismus in Deutschland“.
Globale Dschihadisten, die Deutschland als legitimes Angriffsziel beschreiben, begründen dies unter anderem damit, dass die Bundesrepublik ein im globalen „Krieg gegen den Islam″ eingebundener „Feindesstaat″ sei. Andersdenkende Salafisten wie Mohamad Gintasi alias Abu Jibril und als gemäßigte Islamisten bezeichnete Akteure wie Samir Mourad (DIdI e.V.), aber auch Repräsentanten einiger etablierter Islamverbände, halten ihnen entgegen, deutsche Muslime hätten mit Annahme der deutschen Staatsbürgerschaft oder durch Erhalt ihrer Aufenthaltserlaubnis einen islamrechtlich bindenden Sicherheits(garantie)vertrag (amān) geschlossen. Dieser verpflichte sie, solange sie Sicherheit zugesprochen bekämen und, so ergänzen einige, den Islam praktizieren könnten, geltendes Recht zu achten....
In dem vorliegenden Beitrag wird eine sowohl intra- als auch interlinguale Untersuchung von Phraseologismen mit Anthroponymen als Komponenten vorgenommen. Den Ausgangspunkt bildet das österreichische Deutsch als eine Varietät der deutschen Sprache, die mit dem Binnendeutschen und dem Tschechischen kontrastiert wird. Das Sprachmaterial wurde in zwei Gruppen geordnet, nämlich in determinierte und indeterminierte Einheiten. Zu einer Reihe der sprachlich analysierten Phraseologismen wird darüber hinaus eine Überlegung angestellt hinsichtlich der historischen Situation der Entstehungszeit der Phraseologismen und des sozialen, kulturellen und geistigen Zustands der Völker, in denen diese Wendungen häufig verwendet werden.
Im Gebiet des sommergrünen Laubwaldes von Europa gehören Parkrasen zu den verbreitetsten Pflanzengesellschaften der Siedlungsräume. Der wichtigste gesellschaftsprägende Faktor dieser synanthropen Pflanzengemeinschaft ist der häufige Schnitt.
Alle aus Deutschland beschriebenen Parkrasen weisen in den Grundzügen den gleichen Gesellschaftsaufbau auf. Vorherrschende Arten sind Hemikryptophyten aus dem Cynosurion, die durch ihre Lebensform an den häufigen Schnitt angepasst sind. Anhand des Ozeanitätsgefälle kann man regionale Ausbildungen unterscheiden. Allerdings verdeutlicht ein Vergleich mit dem nah verwandten Lolio-Cynosuretum, dass Parkrasen stärker genormte Standortskomplexe sind und sich naturräumliche Unterschiede nicht so deutlich abzeichnen. Gründe sind, daß durch die einheitliche Anlage von Parkrasen (Auftragen von Humus, Verwendung von Importsaatgut, Häufigkeit des Schnitts), floristische Unterschiede, bedingt durch das Bodensubstrat, verwischt werden.
Des weiteren kann davon ausgegangen werden, dass aufgrund des geringen Alters (in der Regel jünger als 30 Jahre) die Entwicklung dieser Pflanzengesellschaften nicht abgeschlossen ist. Dies verdeutlicht die Ausbreitung der hemerochoren Veronica filiformis, die vor allem durch die großräumige Anlage von Parkrasen günstige Wuchsbedingungen in Mitteleuropa gefunden hat und so fortlaufend ihr synanthropes Areal ausweiten kann.
Deutschland besitzt mit einer geschätzten Zahl von über 2,5 Millionen Vegetationsaufnahmen den weltweiten größten Schatz dieser wertvollen Biodiversitätsinformationen. Leider bleiben Sichtbarkeit und Zugänglichkeit dieses Erbes weit hinter den technischen Möglichkeiten und internationalen Standards zurück. Modernisierung und Ausbau der nationalen Vegetationsdatenbank vegetweb sind eine vordringliche Aufgabe, die im Rahmen eines Verbundprojektes in Angriff genommen wird. Unter http://www.vegetweb.de findet sich der Prototyp der Plattform für Vegetationsdaten, die bis Ende 2016 seine volle Funktionsfähigkeit erhalten soll.
Wir rufen alle Kolleginnen und Kollegen dazu auf, aktiv an der nationalen Vegetationsdatenbank für Deutschland mitzuarbeiten, indem sie ihre eigenen Daten zur Verfügung stellen oder sich darum bemühen, ihnen bekannte Datenbesitzer in ihrem Umfeld von einer Mitarbeit zu überzeugen.
Ziel: Wiederansiedlungen und anderen Formen der gezielten Einbürgerung kommen im Naturschutz eine wachsende Bedeutung zu, nicht zuletzt vor dem Hintergrund zukünftiger Klimaveränderungen. Besonders in fragmentierten Habitaten können Wiederansiedlungen ein geeignetes Mittel sein, um eine hohe Artenvielfalt zu erhalten bzw. wieder herzustellen. In dieser Untersuchung wurden Informationen zu bisherigen Wiederansiedlungsversuchen von Pflanzenarten in Deutschland zusammengetragen, um folgende Fragen zu beantworten: (1) Wie verteilen sich die in Wiederansiedlungsprojekten berücksichtigten Arten auf verschiedene Pflanzenfamilien, Standorttypen, Habitattypen und ökologische Strategietypen, und sind gefährdete Arten bestimmter Eigenschaften und Ansprüche, verglichen mit der Gesamtzahl gefährdeter Arten, in Wiederansiedlungsprojekten adäquat repräsentiert? (2) Werden Arten, für die national oder regional eine besonders große Verantwortlichkeit besteht, in Wiederansiedlungsprojekten hinreichend berücksichtigt? (3) Beeinflusst die Auswahl der wiedereinzubringenden Arten die Chancen für einen Erfolg oder Misserfolg der Projekte?
Methoden: Informationen zu Wiederansiedlungsprojekten in Deutschland wurden aus publizierten und Internet-Quellen sowie unveröffentlichten Berichten zusammengetragen. Berücksichtigt wurden dabei Versuche, die auf einzelne Arten ausgerichtet waren und im Rahmen wissenschaftlicher oder Naturschutz-bezogener Projekte durchgeführt wurden. Für alle Arten wurden Daten zur Systematik, Lebensform, zu ökologischen Merkmalen und Habitatansprüchen zusammengestellt. Eine Liste aller national oder regional gefährdeten, für Wiederansiedlungen berücksichtigten und nicht-berücksichtigten Arten diente als Referenz für die statistischen Auswertungen.
Ergebnisse: Die Liste aller wiedereingebürgerten Gefäßpflanzen umfasste 196 Arten. Im Vergleich zur Gesamtheit aller gefährdeten Taxa in Deutschland waren Arten aus Familien mit großen und auffälligen, oft insektenbestäubten Blüten (zum Beispiel Orchidaceae) überrepräsentiert. Häufiger als statistisch erwartet wurden Arten aus halb-natürlichen Habitattypen, wie Trockenrasen und Heiden, wiederangesiedelt. Besonders viele Projekte betrafen Arten in Kalkmagerrasen auf trockenen, basenreichen und nährstoffarmen Standorten. Im Gegensatz dazu waren Taxa naturnaher Pflanzengemeinschaften (alpine und Stein-Formationen, Wälder) unterrepräsentiert. Etwa 25 % aller wiederangesiedelten Arten gelten regional als gefährdet, deutschlandweit aber als ungefährdet. Von den 150 Arten, für die Deutschland eine besonders große Verantwortlichkeit trägt, wurden nur 14 (9,3 %) in Wiedereinbürgerungsprojekten berücksichtigt. Der Erfolg der Wiederansiedlungen war nur in einem Drittel der Fälle dokumentiert, in denen sich zeigte, dass Wiedereinbürgerungen in nährstoffarmen Lebensräumen relativ oft erfolglos bleiben, Versuche mit nährstoffbedürftigen und konkurrenzstarken Arten dagegen häufiger gelingen.
Schlussfolgerungen: Wiederansiedlungen gefährdeter Arten sollten stärker auf die gefährdeten Arten fokussieren, für die national oder regional eine besonders große Verantwortlichkeit besteht. Die unterschiedlichen Erfolgschancen von Wiederansiedlungen in verschiedenen Habitaten sollten stärker als bisher bei der Auswahl der Arten berücksichtigt werden.
Der Entwicklung eines Instrumentes, eines standardisierten schriftlichen Intensiv-Interviews zur Messung von Einstellungen zu Recht und Gesetz, werden in Teil A der Arbeit theoretische Überlegungen vorangestellt. Der in der Rechtswissenschaft zentrale und umstrittene Begriff „Recht“ wird nur in seiner aktuellen und allgemeinen Bedeutung aufgenommen, in einer allgemeinen Bedeutung wie sie von Laien erfasst wird. Der Begriff „Recht“ wird weiter eingegrenzt auf ein Normverständnis in strafrechtlicher Sicht.
Alltägliche Situationen aus verschiedenen Gebieten des Strafrechts (Fälle) sollen die „Items“ bilden, zu denen Jugendliche, Heranwachsende und junge Erwachsene aus unterschiedlichen Schichten der Bevölkerung und mit verschiedenem Bildungsstand ihre Auffassungen aufschreiben. Begriffe wie Recht, Norm, Moral, Einstellung, Meinung, Stereotyp, Vorurteil und auch Überlegungen zum Verständnis von Recht und Gesetz als „Wert“ werden aufgenommen und im Zusammenhang mit der Entwicklung eines neuen Forschungsverfahrens erörtert.
5 Hypothesen werden formuliert zu Einstellungen von Recht und Gesetz und zur Wert-Orientierung von Individuen.
Vielfältige Überlegungen zur Entwicklung der Items (der Fälle) des standardisierten schriftlichen Intensiv-Interviews und der den Befragten vorzulegenden Stufen-Antworten stehen an. Die zu den einzelnen Items vorgegebenen Stufen-Antworten sollen Normorientierung, Einstellungen zu Recht und Gesetz, in verschiedenem Ausmaß abbilden. Der Inhalt wenigstens einer Item-Stufen-Antwort entspricht der Norm und der Inhalt einer Antwort ist klar nicht normorientiert. Die zusätzlich formulierten alternativen Stufen-Antworten zwischen einer Antwort mit klarer Normorientierung und einer Antwort mit fehlender Normorientierung sind „mehr oder weniger normorientiert“, sie berücksichtigen Aspekte der Normorientierung. Jene werden dargelegt und diskutiert. Besonders beachtet wird die Punkt-Bewertung der entworfenen Stufen-Antworten. Jene bilden schließlich den Einstellungs-Score des Individuums, den „Messwert“, der Auskunft gibt über seine individuelle Normorientierung, seine Einstellung zu Strafrecht und Gesetz.
Es wird im Voraus festgelegt, welche „Summen-Scores“ eine „positive“ Einstellung, welche nur eine „neutrale“ und welche „Summen-Scores“ eine „negative“ Einstellung zu Recht und Gesetz abbilden.
Voruntersuchungen zum Verständnis der Items (der Fälle), eine Überprüfung der Item-Formulierungen, Untersuchungen zum Verständnis der Test-Instruktion und zur Durchführung des Verfahrens mit Hilfe von Befragungen von etwa 100 Jugendlichen und Erwachsenen aus unterschiedlichen sozialen Schichten und mit verschiedenem Bildungsgrad führen in 2006 schließlich zur Endfassung des standardisierten schriftlichen Intensiv-Interviews. Jenes wird dargestellt zusammen mit den entworfenen zusätzlichen Fragen zur Person der Untersuchungsteilnehmer.
Teil B der Arbeit beschreibt und diskutiert erste empirische Befragungen von 13 anfallenden Stichproben mit dem Intensiv-Interview, die in den Jahren 2006 bis 2010 mit 100 Jugendlichen und jungen Erwachsenen, Studierenden einer Universität oder Hochschule, Schülern der 9. Klasse einer Hauptschule und Schülern der 11. Klasse zweier Gymnasien durchgeführt wurden.
Die einzelnen Stichproben mit ihren Personmerkmalen werden charakterisiert.
Stets wird überprüft, ob die ermittelten Ergebnisse die formulierten Hypothesen eher unterstützen oder ob die Hypothesen mit den erhobenen Daten nicht begründet werden können.
Validierungsbemühungen zum Verfahren beziehen sich in den Stichproben 1-5 auch auf die Beantwortung einzelner Items. Sie überprüfen, welche Items die Befragten relativ ähnlich beantworten und zu welchen Items die Testpersonen in unterschiedlicher Weise Stellung nehmen.
Zu 13 anfallenden Stichproben wird gefragt: lassen sich mit dem neuen Verfahren Unterschiede in der Einstellung zu Recht und Gesetz zwischen den Befragten beschreiben? Haben weibliche Jugendliche, Heranwachsende und junge Erwachsene statistisch bedeutsam positivere Einstellung zu Recht und Gesetz als männliche? Können statistisch bedeutsame geschlechtsspezifische Differenzen bei berichteten Konflikten mit dem Gesetz nachgewiesen werden? Gibt es statistisch bedeutsame Unterschiede in den Einstellungen zu Recht und Gesetz zwischen Schülern der 9. Klasse Hauptschule, Schülern der 11. Klasse Gymnasium und einer homogenen Stichprobe von Studierenden einer Universität oder Hochschule?
Zusätzlich erhoben werden die religiöse und politische Orientierung der Probanden.
Jene werden in ihrer Beziehung zu den Einstellungen zu Recht und Gesetz untersucht und verglichen.
Zur Wert-Einstellung der Probanden wird mit einem dafür entworfenen Verfahren untersucht, welche Position erhält der Wert-Bereich „Freiheit, Rechtssicherheit, Gleichheit vor dem Gesetz“ im Vergleich zu neun weiteren Wert-Bereichen in den drei Status-Gruppen?
Man liest Übersetzungen im Allgemeinen als transparente Stellvertreter eines fremdsprachlichen Ausgangstextes, ohne sich des Prozesses des Übersetzens, bzw. der Übersetztheit des Textes bewusst zu sein. Was aber geschieht beim Übersetzen? Übersetzen ist immer Interpretation, so die brasilianische Translationswissenschaftlerin Rosemary Arrojo. Anhand zweier Erzählungen, "Liebe" und "Die Dame und das Ungeheuer oder die allzu große Wunde", der Autorin Clarice Lispector, ins Deutsche übersetzt von Curt Meyer-Clason und Sarita Brandt, wird nach Übersetzungsstrategien und den sich daraus ergebenden Interpretationen, nach Sichtbarkeit und Unsichtbarkeit der Übersetzer und der Übersetzung gefragt, die aus den Zieltexten erkennbar sind, stellt man sie den Ausgangstexten gegenüber.
Verständnisvolle Dozenten haben weniger Fachwissen : Wirkungen der sprachlichen Anpassung an Laien
(2012)
In der Interaktion mit Studierenden ist schriftliche Online-Kommunikation ein wichtiges Arbeitsmedium für jeden Lehrenden geworden. Die Interaktionspartner haben dabei für ihre Urteilsbildung über den jeweils anderen ausschließlich den geschriebenen Text mit seinen lexikalen und grammatikalischen Merkmalen zur Verfügung. Das Ausmaß der lexikalen Anpassung an die Wortwahl eines Studierenden kann daher einen Einfluss auf die studentische Bewertung ihrer Dozenten hinsichtlich unterschiedlicher Persönlichkeitseigenschaften haben. In der vorliegenden Studie beurteilten Studierende jeweils zwei Dozenten hinsichtlich Verständnis, Gewissenhaftigkeit und Intellekt (IPIP, Goldberg, Johnson, Eber et al., 2006) auf Grundlage einer Emailkommunikation. Der Grad der lexikalen Anpassung der Lehrenden wurde dabei variiert. Es zeigte sich, dass Studierende Dozenten mit umgangssprachlicher Wortwahl als verständnisvoller, gewissenhafter aber tendenziell weniger wissend einschätzen.
In diesem Beitrag werden Ansätze zur Förderung der Eignungsreflexion der Studierenden im Lehramt sowie der Beratungskompetenz der betreuenden Lehrenden an der Goethe-Universität Frankfurt dargestellt: Für die Studierenden wurden unterschiedliche Maßnahmen entwickelt und implementiert, die die Reflexion über die persönliche Eignung für den Lehrerberuf fördern und bestehende Defizite frühzeitig ausgleichen helfen. Für die betreuenden Lehrenden (an Universität und Schule) wurde eine hochschuldidaktische Weiterbildung entwickelt und eingesetzt, welche deren Beratungskompetenz stärken soll.
Der lautlose Tod
(1978)
Das Handbuch der historischen Buchbestände in Österreich bietet eine Gesamtübersicht über die historischen Buchbestände in den Bibliotheken und Sammlungen Österreichs. Es ist regional gegliedert. Die ersten beiden Bände umfassen das Bundesland Wien. Sie enthalten einen historischen Überblick über die Wiener Bibliotheken und ein eigenes Register. Die weiteren Bände umfassen die Bundesländer Burgenland, Kärnten, Niederösterreich, Oberösterreich, Salzburg, Steiermark, Tirol und Vorarlberg, wobei jedes Bundesland für sich dargestellt ist. Sie enthalten einen historisch-topographischen Überblick über die Bibliotheken in diesen Bundesländern und ein Gesamtregister, in das das separate Register für Wien inkorporiert ist. Beide Teile enthalten die Vorworte und die Einleitung, sodaß sie für sich benützbar sind. In Anlage und Registergestaltung entspricht das Handbuch der historischen Buchbestände in Österreich dem Handbuch der historischen Buchbestände in Deutschland.
Völkermord an den Armeniern: diplomatische Rücksichtnahme darf Anerkennung nicht im Weg stehen
(2015)
In ihrem Gastbeitrag fordern Matthias Winkler und Timo Leimeister von Genocide Alert, dass Deutschland, trotz möglicher diplomatischer Verstimmungen, nicht davor zurückschrecken sollte, den Völkermord an den Armeniern von 1915 als solchen ausdrücklich zu benennen. Vor einem Jahrhundert wurden weite Teile des armenischen Volkes im Osmanischen Reich in einem Völkermord ausgelöscht. Das Deutsche Reich war ein enger Verbündeter der damaligen osmanischen Regierung und stellte die Bündnispolitik über das Überleben der Armenier. Durch ein Eingeständnis auch der eigenen historischen Verantwortung an den Geschehnissen kann die Bundesrepublik im Gegenteil den Vertretern einer Aussöhnung in der Türkei den Rücken stärken...
Der Südrand des Kyffhäuser im nördlichen Thüringen ist eine der trockensten (500 mm Jahresniederschlag) und wärmsten (10° Jahresmitteltemperatur) Regionen Deutschlands. Zudem wird er von Zechstein-Gipsen gebildet, die sehr wasserdurchlässig sind und nur eine geringe Bodenauflage haben, sodass große Partien von Natur aus waldfrei sind. Daraus resultiert eine für Deutschland ziemlich einzigartige Vegetation, die nur in Anklängen auch im Südharz und im Unstruttal zu finden ist. Sie besteht aus kontinentalen Steppenelementen (Stipa, Adonis, Mannia fragrans), mediterranen Elementen (Riccia ciliifera, Tortula brevissima, Tortula revolvens, letztere von Reimers als Wüsten-Steppenmoose bezeichnet) und arktisch-alpinen Elementen (Athalamya hyalina, Tortella densa).
Im Rahmen einer jetzt schon ganzen Reihe von Gebietsmonographien soll hier die Moosflora ausgewählter „hot spots“ im Lahntal zusammengestellt werden. Grund ist, dass – wie schon früher erwähnt – eine einfache Möglichkeit eröffnet werden soll, sich ohne große Recherchen über die Besonderheiten der deutschen Moosflora zu informieren, zumal aber auch der Personenkreis, der solche Zusammenstellungen erbingen kann, insbesondere aus eigener Anschauung, immer kleiner wird und bei der deutlichen Abnahme von floristisch ausgebildeten Bryologen oder lokalfloritsisch orientierten Mooskennern eine Zusammenstellung von Nöten wird.
Fährt man mit dem Zug durch das Rheintal zwischen Bonn und Bingen, so ist man von dem schroffen Kerbtal mit seinen Efeu-bewachsenen Schieferfelsen, nackten Felskuppen, niedrigen Eichenwäldern, Weinbergen und nicht zuletzt Burgen fasziniert. Bei genauerem Hinsehen vor Ort erweisen sich diese Habitate jedoch ganz überwiegend bryologisch als langweilig. Es herrscht sauerer Schiefer vor, auf dem Hypnum, Ceratodon und Polytrichum piliferum doninieren; die Wälder sind trocken, Die Felsen von Brombeeren und Schlehen überwachsen und undurchdringlich, nackte Felsen mit Bryum argenteum bestanden. Interessante Orte gibt es nur wenige, die im Folgenden zusammen- und vorgestellt sind.
Das Untere Moseltal erstreckt sich von Trier bis zur Mündung in den Rhein bei Koblenz. Es liegt zwischen dem bryologisch gesehen relativ artenarmen quarzitischen Hunsrück im Süden (vgl. Archive for Bryology 69) und der Eifel im Norden und führt überwiegend durch Devonschiefer. Bryologisch interessant wird es durch eine Vielzahl von Xerothermelementen, deren Vorkommen durch die steilen, oft südexponierten Felspartien begünstigt werden. Diese gelten wie die mediterranen Faunenelemente an der Mosel (Würfelnatter, Sattelschrecke, Gottesanbeterin, Smaragdeidechse etc.) als Relikte des postglazialen Wärmeoptimums mit 2-3°C höheren Mitteltemperaturen, die sich an kleinklimatisch begünstigten Stellen haben halten können. Diese Hypothese ist jedoch unbelegt, da Moose sich auch später über Sporen angesiedelt haben können. Genauso brauchen Vorkommen mediterraner Vögel wie die der Zippammer keine Relikte zu sein. Die Frage ließe sich heute nur über die genetsichen Distanzen der DNA Sequenzen moselanischer und mittelmeerischer Populationen klären. Die Frage schließt ein, ob die Vorkommen auf Einzelansiedlungen von Arten zurückgehen, oder ob sich Relikte der mediterraner Moosvegetation in Form von Resten von Moosgesellschaften handelt, da im Boreal ganze Moosgesellschaften und nicht Einzelarten eingewandert sind. Von Hübschmann (1967) arbeitete übereinstimmende Vegetationsaufnahmen aus Südfrankreich in seine Tabellen von der Mosel ein und kam dadurch zum Schluss, dass es sich um identische Gesellschaften handelt.
Mit dem Dreiteiler „Unsere Mütter, unsere Väter“ hat das ZDF eine neue Diskussion über das Verhalten und die Verantwortung der Deutschen während des Zweiten Weltkrieges ausgelöst. Doch die Hoffnung auf eine Differenzierung der öffentlichen Diskussion wurde in den Talkshows des Senders rasch enttäuscht.
Der dritte Advent ist geschafft, wie biegen auf die Zielgerade gen Weihnachten, Jahreswechsel und Bretterblogpause ein. In der letzten, diesmal recht bunten Netzschau diesen Jahres drehen wir uns um Islamophobie und Rassismus, Folter, Cyberpeace, die “resistance” und soziale Bewegungen und schließlich “IS(IS)”.
Beiträge zur Moosflora des Naturschutzgebietes „Ölberg Wöllstein“ (Rheinhessen, Rheinland-Pfalz)
(2011)
Die Moosflora des markanten Rhyolith-Felsens südwestlich von Wöllstein wurde in den Jahren 1997 bis 2011 untersucht. Es ergab sich ein Gesamt-Bestand von 90 Taxa, von denen 14% in ihrem Bestand gefährdet sind. Aufgrund der starken ökologischen Differenzierung des Gebietes sind boreal/subboreale Arealtypen etwa in gleichem Anteil vertreten wie submediterrane Arealtypen. Bemerkenswert ist die Entdeckung von Desmatodon guepinii durch MEINUNGER & SCHRÖDER (2007), der am Ölberg seinen einzigen Fundort in Deutschland hat. Wie in vielen Gebieten mit Fels-Trockenrasen, besteht auch im Untersuchungsgebiet die Gefahr einer Ausbreitung von Sträuchern und Bäumen und damit die Verdrängung im Bestand gefährdeter Arten.
Für die erste Fassung der Roten Liste der Moose Deutschlands war Schistidium maritimum als Fallbeispiel für die Kategorie 0 (ausgestorben, bzw. verschollen) bearbeitet worden (KOPERSKI in LUDWIG & al. 1996). Die Art war in Deutschland im vorvorigen Jahrhundert an fünf Fundorten an der Ostseeküste Schleswig-Holsteins auf erratischen Blöcken bekannt (JENSEN 1952). Nach LIMPRICHT (1889) beobachtete sie J. W. P. Hübener zuerst bei Heiligenhafen und auf Fehmarn. JENSEN l. c. bemerkt, dass er und F. Koppe zwischen 1920 und 1950 vergeblich nach dem Moos suchten. Auch das einzige mecklenburgische Vorkommen bei Hohenwieschendorf gilt lange als erloschen (DÜLL 1994). Seit zirka 120 Jahren konnte das Moos in Deutschland nicht mehr beobachtet werden.
Langsam aber sicher fragt man sich, ob es überhaupt noch Sinn macht, aktuelle Enthüllungen über Geheimdienstaktivitäten als Aufhänger zu benutzen. Man hat sich schon so daran gewöhnt, dass es im Hintergrundrauschen untergeht. Aber versuchen wir es trotzdem noch mal: Hey, wer von den geneigten Lesern war auf der WikiLeaks Webseite? Oder The Pirate Bay? Ruft jemand „ja“ vor seinem Rechner? Sehr gut. Sagt „hallo“, denn ihr wurdet vom britischen Geheimdienst (GCHQ) und/oder der NSA erfasst. Snowden lässt grüßen, und wieder einmal fühlt man sich ein wenig unsicherer online. Aber keine Sorge, Angela Merkel und Francois Hollande haben einen Plan. Und die EU hat auch einen...
Die Krimkrise lässt nicht nach und jeder Staat scheint eine eigene Agenda zu verfolgen. Wer aber verfolgt seine Agenda so, dass sie am Ende auch erfolgreich ist? Die Krise ist noch nicht ausgestanden, doch eine erste Bestandsaufnahme lässt bereits interessante Schlüsse zu. Russland scheint sich momentan nicht schlecht zu schlagen, in Angesicht eines Westens, der immer noch damit ringt, eine klare Linie zu fahren. Doch der wahre Gewinner der gesamten Auseinandersetzung könnte ein Staat sein, der sich bis jetzt sehr ruhig verhalten hat: China.
Eine "Gestaltungsmacht" stolpert hinterher – Die deutsche Bundesregierung und die Krise in Mali
(2013)
Im November diagnostizierte ich auf diesem Blog, dass sich Deutschland nach Mali ‚geschlichen‘ habe. Gegenstand dieser Kritik war eine doppelte Zurückhaltung: obwohl die deutsche Bundesregierung recht schnell signalisierte, dass sie sich an einer Trainingsmission für das malische Militär beteiligen würde, blieb der tatsächliche deutsche Beitrag nach außen hin vage und der öffentliche Diskurs über eine Mali-Strategie nach innen nicht existent. Seitdem hat sich einiges getan. Frankreich intervenierte militärisch, die Bundeswehr schickte logistische Unterstützung, die deutsche Öffentlichkeit diskutierte ein wenig und der Bundestag mandatierte die Entsendung der Bundeswehr, wenn auch nicht von Kampftruppen. Trotz dieser Entwicklungen hat sich an der Zurückhaltung der Bundesregierung erstaunlich wenig verändert. Wenn schon konkret gehandelt wird, warum wurde nicht auch der deutsche Regierungsdiskurs vernehmbarer und das Handeln der Bundesregierung konkret greifbarer? Wird eine klare außen- und sicherheitspolitische Position nur elitär aber nicht öffentlich diskutiert und, wenn ja, warum? Oder, so die Vermutung im Folgenden: die deutsche Bundesregierung kann aufgrund der politischen Handlungsnotwendigkeiten nicht mehr schleichen, stolpert den Entwicklungen aber hinterher, weil es weiterhin an einem konkreten und konturierten Gestaltungswillen deutscher Entwicklungs-, Außen- und Sicherheitspolitik und an der strategischen Tiefe der Hilfsmaßnahmen fehlt...
Die Snowden-Leaks an sich, insbesondere die von ihm an die Öffentlichkeit geleakten Powerpoint-Folien, haben es bereits in sich. Leicht zu verstehen sind sie aber nicht immer, es gibt schlicht zu viele Codenamen. Um so interessanter ist daher diese Mitschrift eines Vortrags von William Binney, einem ehemaligen technischen Direktor bei der NSA, der nach 37 Jahren Dienst ausschied und Whistleblower wurde. In diesem Vortrag erklärt Binney, was es mit der Überwachungsinfrastruktur der NSA auf sich hat, was hinter den ganzen Codenamen steckt und welche Implikationen das ganze hat...
Nach dem umstrittenen Referendum in derOstukraine wird wieder über schärfereWirtschaftssanktionen gegen Russland gestritten. ImZentrum der Auseinandersetzung zwischenBefürwortern und Kritikern von Wirtschaftssanktionen steht die Frage: Wieerfolgversprechend sind Sanktionen, das Verhalten Russlands zu ändern?Aber das ist die falsche Frage! Ihr liegt das Missverständnis zugrunde, dassSanktionen in erster Linie den Zweck haben, einen Übeltäter zu bestrafenund ihn dazu zu zwingen, von seinem Tun abzulassen. Zwei Dinge werdenhier verwechselt: Sanktionen und Zwangsdiplomatie...
Letzte Woche argumentierte Stefan Engert in seinem Gastbeitrag für das Bretterblog, Deutsche dürften Israel nicht kritisieren. Das glaube ich nicht. Denn die Lehren aus dem Holocaust können nicht in der Zementierung von Täter- und Opferrolle liegen. Gemeinsame Verantwortung für ein mitmenschliches Umgehen – das ist die Antwort.
Kriege in der Ukraine, Israel/Palästina, im Irak und in Syrien – die Lage um Europa herum ist so dramatisch und tödlich wie lange nicht mehr. Das führt nun auch in Deutschland zu ersten überfälligen Ansätzen einer Diskussion um die eigene außenpolitische Rolle. Was heißt Verantwortung übernehmen heute? Ein Plädoyer.
Wenn in Deutschland über Roma diskutiert wird, werden sie meist mit Verschmutzung, Arbeitslosigkeit und Sozialschmarotzertum in Verbindung gebracht. Auffällig dabei: Die Roma selbst kommen fast nie zu Wort. Anders in einem neuen Film, der am Sonntag in Frankfurt Premiere feiert – er gibt Frankfurter Roma eine vernehmbare Stimme.
Obwohl noch nicht ausreichend geklärt ist, wie belesen Schmidt im Bereich der literarischen Moderne eigentlich gewesen ist, als er um 1950 mit ersten literarischen Veröffentlichungen und um die Mitte der fünfziger Jahre sogar mit seinen ersten prosatheoretischen Entwürfen an die Öffentlichkeit trat, läßt sich seinen Äußerungen doch soviel entnehmen, daß wir seine Kenntnis der außerdeutschen europäischen Moderne wohl eher als sehr bescheiden und lückenhaft ansehen müssen. Die Quellenlage spricht dafür, daß außer Alfred Döblin, Hans Henny Jahnn, Hermann Hesse und, im Wortspielerischen, Expressionisten wie August Stramm nur wenige andere moderne Autoren ihm für sein Werk Pate gestanden haben, am wenigsten noch die großen Vertreter der europäischen Moderne. Schmidt, vom Faschismus samt der verabscheuten Wehrmachtszeit zu einem der zahlreichen 'transzendentalen Obdachlosen' der Nachkriegszeit transformiert, siedelte seine private literarische Ahnengalerie stattdessen vorzugsweise im 18. und 19. Jahrhundert an; Vorbilder waren ihm, dem selbst erklärten "Verirrten aus dem 18. Jahrhundert", unter anderem Wieland, Fouqué, Tieck, Poe, Dickens und Stifter.
Schriftsteller sind auch nur Menschen und wollen sich genauso an der jeweiligen Tagesdebatte beteiligen können und sich im Diskursgeschehen der Gesellschaft genauso Gehör verschaffen wie der 'normale' Bundesbürger (wenn sie nicht selbst schon Ursache der Tagesdebatte sind). Doch ist ein Autor 'nur' ein 'normaler' Bundesbürger? Hat er oder sie nicht eine besondere Verpflichtung gegenüber der Gesellschaft, gebührt seiner oder ihrer Stimme nicht ein besonderes Gewicht in der öffentlichen Debatte? So haben wir's doch seit dem deutschen Idealismus gehalten: der Dichter ab Stimme des Volkes, als Statthalter des Gewissens, als Wegweiser und Vordenker, Mahner und Warner und was noch alles mehr. […] An zwei Beispielen, Heinrich Böll und Martin Walser, will [der Autor] nicht nur prüfen, warum gewisse 'menschliche' Äußerungen, die sie taten, „durch Publizität zum Spott oder zum Skandal“ wurden, sondern auch wie sich beide Autoren nachträglich dazu äußerten, und was wir daraus wohl schlußfolgern können.
Seit dem Erscheinen der letzten deutschen Florenliste für Farn- und Samenpflanzen im Jahr 1998 haben sich zahlreiche Änderungen ergeben: Erstnachweise, Streichungen und Neubeschreibungen von Sippen, taxonomische Neubewertungen und nomenklatorische Änderungen. Das neue Verzeichnis listet alle in Deutschland etablierten Sippen (Indigene, Archäophyten, Neophyten) der Rangstufen Art und Unterart auf sowie eine Auswahl an Synonymen. Akzeptiert werden 4165 Sippen. Die Kriterien für etablierte Neophyten wurden geringfügig modifiziert. Durch den Bezug zum "Kritischen Band" der Rothmaler-Exkursionsflora ist im Gegensatz zu früheren Florenlisten eine eindeutige taxonomische Verknüpfung hergestellt; Abweichungen werden kommentiert. Eine Reihe taxonomisch kritischer Taxa wurde von Spezialisten bearbeitet.
Der Beitrag des Medizinhistorikers U. Benzenhöfer analysiert den "Paracelsus"-Film des Regisseurs Georg W. Pabst aus dem Jahr 1943. Laut Drehbuch (Kurt Heuser) sollte Paracelsus als "deutscher Arzt" charakterisiert werden. Der Regisseur versuchte jedoch aller Wahrscheinlichkeit nach, Elemente regimekritischer Gesinnung im Film unterzubringen.
Der vorliegende Beitrag beschäftigt sich mit den Lehrenden in der betrieblichen Weiterbildung und deren pädagogischem Professionalisierungsbedarf. Beschrieben wird ein von der Feuerwehr- und Rettungsdienstakademie der Branddirektion Frankfurt am Main (FRA) und dem Fachbereich Erziehungswissenschaften der Goethe-Universität entwickeltes Konzept zur Aus- und Weiterbildung pädagogisch tätiger FeuerwehrbeamtInnen, das 2012 erstmals umgesetzt wird. Bislang existierten hierfür weder in Deutschland noch in Österreich einheitliche Vorgaben. Ausgehend von den Bedürfnissen der Feuerwehren und geleitet von theoretischen Positionen der Erwachsenenbildung wird mit dem Konzept nicht zuletzt auch eine lernende Organisation zu verwirklichen versucht. Der Beitrag erläutert Ausgangslage, pädagogische Grundhaltung, Ziele und Ergebnisse der Voruntersuchung und skizziert die konkreten Modulinhalte und den Seminarablauf. Fazit der Autoren: Analog zu der bereits begonnenen Entwicklung in Wirtschaftsunternehmen wird das Niveau der pädagogischen Kenntnisse von lehrendem Personal auch bei den Feuerwehren steigen müssen. (DIPF/Orig.)
Bislang war in deutschen Städten das Wohnen im Eigentum – entweder im Eigenheim oder in der Eigentumswohnung – die Ausnahme. Insbesondere in Großstädten dominierte das Wohnen zur Miete. Gegenwärtig ändert sich dies: Großstädte wie Frankfurt, Berlin, Hamburg, Köln und München sind gegenwärtig geprägt von einer Kauflust privater und institutioneller Investoren. Zugleich hat in vielen Städten ein Ausverkauf und/oder Vermarktlichung des öffentlichen Wohnungsbestandes stattgefunden. Dies hat dazu beigetragen, dass die Preise sehr stark angestiegen sind. In dem Beitrag wird die aktuelle Entwicklung auf städtischen Wohnungsmärkten in Deutschland als Folge einer Finanzialisierung von Immobilien sowie einer Responsibilisierung im Bereich der Wohnversorgung analysiert. Es wird gefragt, welche Folgen dies in Städten hat.
Rechtlich geregelte Ausbildungsstrukturen haben sich bei der Entwicklung des Kochberufes recht spät entwickelt. Anders als bei typisch handwerklichen Berufen, die durch die Gewerbeordnung von 1869 geregelt waren, wurde der Koch den gewerblichen Arbeitern zugeordnet, auf welche diese Bestimmungen nicht zutrafen. Da es in einigen Ländern des Deutschen Reiches dennoch Innungen gab, war hier das Ausbildungswesen entsprechend geregelt und es ergaben sich große länderspezifische Unterschiede. Lange Zeit war das Ausbildungsverhältnis zwischen Ausbilder und Auszubildenden ein rein privates,
dementsprechend groß waren die Unterschiede von Betrieb zu Betrieb und der Ausbeutung der Arbeitskraft der Lehrlinge waren keine Grenzen gesetzt. Verbindliche Prüfungen gab es kaum, weder für die Auszubildenden noch für die Ausbilder. Obwohl die Bestrebungen - besonders der Arbeitnehmerverbände - während der Weimarer Zeit sehr groß waren, ergab sich auch hier noch keine einheitliche Regelung des Lehrlingswesens - teilweise aufgrund der enormen politischen und wirtschaftlichen Probleme.
Erst während der Zeit des Nationalsozialismus - und hier besonders durch den Aufbau der Reicharbeitsgemeinschaft für Berufserziehung im deutschen Gaststättengewerbe - wurden einheitliche Ausbildungsstrukturen mit geregelter Lehrzeit und geregeltem Prüfungswesen eingeführt, auch die während der Berufsausbildung zu vermittelnden Inhalte wurden hier erstmals festgelegt. Das Berufsbild des Koches selbst wurde erst 1950 anerkannt - erstaunlich bei der langen Geschichte dieses Berufes. Die 50er und 60er Jahre waren geprägt von vielfältigen Diskussionen über das Berufsbild des Koches und die Arbeitsbedingungen im Hotel - und Gaststättengewerbe, die daraus resultierenden Veränderungen jedoch gering.
Einen "Meilenstein" stellte das Berufsbildungsgesetz von 1969 darf wo der Beruf des Koches als Ausbildungsberuf seine staatliche Anerkennung erfuhr. Hier wurden auch erstmals über das Berufsbild hinausgehende Berufsordnungsmittel (Ausbildungsrahmenplan, Prüfungsordnungen) verbindlich festgelegt.
Definitiv verändert bzw. ergänzt wurde das Berufsbild des Koches durch die Ausbildungsverordnung von 1979, die auch heute noch gilt. Auch weitere Strukturmerkmale wie die Meisterprüfungsordnung und die Ausbildereignungsverordnung sind erst in jüngster Zeit erlassen worden.
Laut Auskunft der Industrie- und Handelskammer werden "gute Köche auch heute noch gesucht". Noch immer verhält es sich so, daß ein Großteil der Auszubildenden letztendlich einen anderen Beruf ergreift - teilweise aufgrund der immer noch als schlecht angesehenen Arbeitsbedigungen. Ein erhöhter Bedarf wird hervorgerufen durch Umstrukturierungen auf dem Verpflegungssektor und ein erhöhtes Konsumbedürfnis der Bevölkerung. Daß bestimmte Vorbereitungstätigkeiten, wie sie früher im Berufsbild mit aufgeführt wurden, teilweise in den industriellen Bereich verlagert worden sind, kann als Fortschritt begriffen werden und könnte eine wachsende Attraktivität des Berufes bewirken.
Aktuelle Auseinandersetzungen über die Ausbildung werden im Augenblick nicht geführt. Geblieben ist die Frage, wie die Durchführung der Ausbildungsverordnung gewährleistet werden kann: In vielen Betrieben verhält es sich immer noch so, daß Auszubildende als willkommene Hilfs-Arbeitskräfte begriffen werden und die vorgegebenen Ausbildungsziele vernachlässigt werden.
Professionelle Fehlerkompetenz von Lehrkräften – Wissen über Schülerfehler und deren Ursachen
(2011)
Die Ergebnisse nationaler und internationaler Vergleichsstudien rücken das Thema Bildungsqualität in den letzten Jahren vermehrt in den Blickpunkt öffentlicher und wissenschaftlicher Diskussion und führen zu einer verstärkten Auseinandersetzung mit Bedingungen des Ge- bzw. Misslingens von Schülerlernen. Als bedeutsamer Einflussfaktor auf den Lernerfolg wird dabei die Lehrperson bzw. deren Kompetenz ausgemacht (vgl. bspw. Blömeke, Kaiser & Lehmann 2008; Lankes 2008; Schaper & Hochholdinger 2006; Zlatkin-Troitschanskaia, Beck, Sembill, Nickolaus & Mulder 2009). In der Folge dieser Diskussion werden deshalb nicht mehr nur Leistungs- und Kompetenzerwartungen als Standards für Lernende, sondern auch für Lehrende definiert (vgl. bspw. Terhart 2006). Die in diesem Zusammenhang aufgeworfenen Fragen sind allerdings nicht neu (vgl. z.B. Cochran-Smith 2001), stellt doch das Expertenparadigma bereits seit den 1980er Jahren eine der zentralen Leitlinien der empirischen Bildungsforschung dar. ...
This paper draws a parallel between German society and politics, German football and coursebooks for German as a foreign language (DaF) in the second half of the twentieth century. Departing from observations on the analogies between German football and politics made by Norbert Seitz, it discusses the cultural and pedagogical spirit of DaF-coursebooks from the fifties to the nineties.
Der Mietspiegel ist ein Instrument im deutschen Vergleichsmietensystem, mit dem die Mietpreise auf dem privaten Wohnungsmarkt reguliert werden sollen. Frankfurt am Main war Pionier bei der Durchsetzung des Mietspiegels in der Bundesrepublik: Bereits in den 1960er Jahren wurden Mietprognosen von der Vereinigung der Haus-, Grund- und Wohnungseigentümer (Haus & Grund) veröffentlicht, die bei Rechtsstreitigkeiten schlichtende Funktion erfüllen sollten; 1974 kam es zur Bildung einer Kommission, in der neben der Stadt Frankfurt u.a. Repräsentant_innen der beiden Mietparteien vertreten waren und die den ersten Mietspiegel herausgab (vgl. Lammel 2007: 4); 1990 kam es schließlich zur bundesweit ersten Erstellung eines Mietspiegels mittels der Regressionsanalyse – einer Methode, die damals von Seiten der Vermieter_innenverbände heftig angefeindet wurde (vgl. ebd.: 6ff., Hummel 1993), mittlerweile jedoch allgemein als anerkannt gilt (vgl. BMVBW 2002: 39). In Frankfurt kommt diese Methode bis heute zur Anwendung, obwohl sie nach wie vor in der Kritik der Vermieter_innenverbände steht (vgl. exemplarisch Ridinger 2011). Entsprechend lehnten diese bspw. den Mietspiegel 2008 geschlossen ab, während die Mieter_innenverbände ihm durchweg zustimmten (vgl. Amt für Wohnungswesen 2008: 4). Haus & Grund äußerte sich damals in Vertretung der Kleineigentümer_innen wie folgt:
„Der einseitig von der Stadt aufgezwungene Mietspiegel kann seinen Hauptzweck, nämlich für eine Befriedung zwischen Mietern und Vermietern zu sorgen, nicht erfüllen“ (Haus & Grund 2009).
2010 wendete sich das Bild: Während die Vermieter_innenverbände dem neuen Mietspiegel mehrheitlich zustimmten, stimmte ein Mieter_innenverband dagegen und zwei enthielten sich der Stimme. Beispielhaft auch hier die Erklärung von Haus & Grund:
„Frankfurter Vermieter können aufatmen. Der neue Frankfurter Mietspiegel 2010 ermöglicht Mietsteigerungen um durchschnittlich 4,4 Prozent. (...) Die Innenstadt wurde durch die Einführung von zwei neuen Wohnlage-Kategorien stark aufgewertet, die Liste der Durchgangsstraßen wurde merklich reduziert, und der restaurierte Stilaltbau erhält endlich die Zuschläge, die ihm gebühren. Freuen dürfte viele Vermieter zudem, dass auch Balkone, Terrassen, Loggien und Rollläden wieder Zuschläge erhalten, ebenso wie modernisierte Bäder“ (Haus & Grund 2011a).
In der Folge kam es zu teilweise drastischen Mieterhöhungen, die zum Protest verschiedener Stadtteilinitiativen führten (FR 2011b, 2011c). In der Diskussion um die Fortschreibung des Mietspiegels 2010 wurde von der IG BAU seine Abschaffung gefordert (vgl. FR 2012d).
Im Projekt OPTUM wurde untersucht, welche Umweltentlastungen durch Elektrofahrzeuge in Zukunft erzielt werden könnten. Hierzu wurde ein integrativer Ansatz verfolgt, der neben der fahrzeugseitigen Betrachtung auch die Interaktionen mit dem Strommarkt berücksichtigt. Im Einzelnen fanden Analysen zu den folgenden zentralen Aspekten statt: Akzeptanz und Attraktivität von Elektrofahrzeugen, Marktpotenziale für Elektrofahrzeuge, Interaktion von Elektrofahrzeugen mit dem Stromsektor, CO2-Minderungspotenziale von Elektromobilität, Ökonomische Betrachtung der Speichermedien und Ressourceneffizienz des Systems Elektromobilität. In diesem Studientext werden die Forschungsergebnisse zur Frage nach der Attraktivität und Akzeptanz von Elektroautos vorgestellt. Dabei wird auf Ergebnisse aus zwei empirischen Untersuchungen eingegangen, die in OPTUM zur Ermittlung der Attraktivität und Akzeptanz von Elektrofahrzeugen durchgeführt wurden. Bei diesen Untersuchungen handelt es sich zum einen um eine qualitative Untersuchung mittels Fokusgruppen und zum anderen um eine standardisierte Erhebung, bei der NeuwagenkäuferInnen befragt wurden. Mit der standardisierten Befragung wurde eine Conjoint-Analyse zur Fahrzeugwahl gekoppelt, bei der sich die Befragten zwischen Fahrzeugen mit Verbrennungsmotor, Plug-in-Hybrid-Antrieb und voll-elektrischem Antrieb entscheiden mussten. Die empirischen Analysen verdeutlichen, dass es ein erhebliches Akzeptanzpotenzial für die beiden Elektrofahrzeugkonzepte – Plug-in-Hybride und vollelektrische Fahrzeuge – gibt. Speziell für voll-elektrische Fahrzeuge existiert je nach Szenario und Fahrzeugklasse ein Akzeptanzpotenzial von 12 bis 25 Prozent. Des Weiteren liefern beide empirischen Erhebungen Hinweise, wie dieses Akzeptanzpotenzial ausgeschöpft oder gar vergrößert werden kann.
Die nationalsozialistische deutsche Vergangenheit erwies sich seit dem Bestehen der Bundesrepublik als Kristallisationspunkt innenpolitischer Kontroversen über nationales Selbstverständnis und politische Orientierung der Deutschen. Ob in den Debatten der späten fünfziger und frühen sechziger Jahre um personelle Elitenkontinuitäten zwischen NS-System und BRD, dem sich in den Studentenprotesten der sechziger und siebziger Jahre äußernden Aufbegehren einer nachgeborenen Generation, oder den heutigen, sich meist anhand mehrdeutiger politischer Symbolik und Gestik entzündenden Diskussionen um Formen und Möglichkeiten des Erinnerns; in den periodisch immer wieder aufbrechenden Konflikten wurden Positionen grundsätzlicher Art formuliert, welche wegweisend für die künftige Entwicklung der Bundesrepublik waren...
Die Gegenwart des Vergangenen : Stephan Wackwitz’ "Ein unsichtbares Land" als postkolonialer Roman
(2005)
Viele Publikationen jüngeren Datums beschäftigen sich erneut mit der deutschen Vergangenheit, die wieder einmal dem Vergessen entrissen werden soll, jetzt aber aus anderer Perspektive, indem sie nämlich in vielerlei Einzelheiten dokumentiert und so festgehalten werden soll. Zu der Kategorie von Texten, die die deutsche Vergangenheit aus den Brüchen wie der Kontinuität der Familiengeschichte betrachten, verdienen drei besondere Erwähnung: „Am Beispiel meines Bruders“ (2003) von Uwe Timm, das 2004 erschienene „Meines Vaters Land“, die „Geschichte einer deutschen Familie“, von Wibke Bruhns und der im Untertitel als „Familienroman“ bezeichnete Text von Stephan Wackwitz, „Ein unsichtbares Land“. Diese drei Texte stehen im Kräftefeld unterschiedlicher familiärer Beziehungen: zum Bruder bei Timm, zum Vater bei Wibke Bruhns, schließlich im Verhältnis Enkel-Großvater bei Wackwitz. Darüber hinaus geben die drei Werke einen Blick auf die deutsche Familie aus drei unterschiedlichen soziologischen Perspektiven: Bei Bruhns handelt es sich um die großbürgerliche Unternehmerfamilie, Uwe Timm beschreibt eine kleinbürgerliche Familie. Als dritte Variante tritt bei Stephan Wackwitz das Bildungsbürgertum in der Person des evangelischen Pfarrers und seiner Angehörigen auf. Allen dreien ist jenes unbestimmbare ‚echt Deutsche‘ gemeinsam, das auf verhängnisvolle Weise dem faulen Zauber des Nationalsozialismus zum Opfer fallen sollte.
Im folgenden Beitrag wird zunächst die Entwicklung der personellen Einkommensverteilung in Deutschland zwischen 1993 und 1998 auf der Basis der Einkommens- und Verbrauchsstichproben (EVS) dargestellt. Dabei werden - ähnlich wie in früheren Analysen auf Basis der EVS und des Sozio-ökonomischen Panels (SOEP) - hoch aggregierte Indikatoren berechnet, mit denen die Informationsfülle einer Mikrodatenquelle zu nur einer Zahl bzw. zu einer eindimensionalen relativen Häufigkeitsverteilung verdichtet wird. In einem zweiten Schritt und schwerpunktmäßig wird untersucht, welche Verteilungsstrukturen sich hinter diesen Darstellungen der Gesamtverteilung verbergen.
In dieser Arbeit werden die zentralen Kernfragen, Probleme und Sorgen skizziert, welche die bürgerlich-radikalen Pionierinnen in den Anfängen der Sexualreformbewegung im Kaiserreich und der Weimarer Republik in ihrer von sexual- und bevölkerungspolitischen Debatten und Refomen gesättigten biopolitischen Welt aufwarfen und auf die sie eine Antwort suchten. Die bislang vorwiegend auf Helene Stöcker und den Bund für Mutterschutz gerichtete Sicht wird erweitert durch die Analyse der Schriften von Rosa Mayreder und Grete Meisel-Hess. Im Mittelpunkt stehen nicht die im engeren Sinn körperpolitischen und bevölkerungspolitisch-eugenischen Positionen dieser feministischen Sexualreformerinnen, sondern die vielfältigen Bezüge ihres Diskurses zu zeitgenössischen geschlechtertheoretischen Debatten, kultur- und sozialgeschichtlichen Untersuchungen sowie zu medizinischen und sexualwissenschaftlichen Theorien.
Gegenstand der Untersuchung ist die Veränderung der Struktur der personellen Einkom-mensverteilung in der Bundesrepublik Deutschland. Die Grundlage der Analyse sind die vom Statistischen Bundesamt erhobenen Einkommens- und Verbrauchsstichproben (EVS) der Jahre 1962/63, 1969, 1973, 1978 sowie 1983. Um zwischen Alters-, Perioden- und Ko-horteneffekten differenzieren zu können, wurden die Daten der einzelnen Querschnittser-hebungen verkettet und mit Hilfe der so gebildeten Zeitreihen, sogenannten „Repeated Cross-Section“-Daten (RCS-Daten), die Entwicklung und Strukturveränderungen der Ein-kommen geburtskohortenspezifisch untersucht. Es zeigt sich, daß die Struktur der Einkommen während der jeweiligen Zeit der Erwerbstätigkeit, d. h. bis zum 60. Lebensjahr, relativ beständig bleibt. Erst der Übergang in die Nacherwerbsphase führt zu einem Bedeutungswandel: die „Einkommen aus öffentlichen Transferzahlungen“ werden zu einer relevanten Einkunftsart. Verursacht wird dies vor allem durch Leistungen aus staatlichen Alterssicherungssystemen. Eine analoge Zunahme der Bedeutung von „Einkünften aus Vermögen“ im Alter, wie sie z. T. in der ökonomischen Theorie sowie von Sozialpolitikern unterstellt wird, kann nicht bestätigt werden. Zusätzlich zu den, getrennt für die Ein- und Zweipersonenhaushalte durchgeführten Analysen wurde ein Vergleich der Wohlstandspositionen zwischen diesen beiden Haushaltsgrößen mittels Äquivalenzeinkommenswerten vorgenommen. Als grundlegendes Resultat ergibt sich, daß die Zweipersonenhaushalte im Hinblick auf die „ausgabefähigen Einkommen und Einnahmen“ grundsätzlich eine höhere Position als die Einpersonenhaushalte innehaben. Darüber hinaus wurden ansatzweise die mit einer Haushaltsänderung einhergehenden Einkommensveränderungen untersucht. Hierbei zeigt sich, daß der Übergang von einem „Zweipersonen-Durchschnittshaushalt“ mit einer männlichen Bezugsperson zu einem „Einpersonen-Durchschnittshaushalt“ mit einer verwitweten Frau als Bezugsperson zu einer erheblichen Verringerung der Wohlstandsposition der verwitweten Frau führt.
Wie können nun die vielfältigen Ergebnisse zur Einkommens- und Vermögensverteilung im Hinblick auf die Frage, ob es eine soziale Polarisierungstendenz gibt, zusammengefaßt werden? Angesichts des unklaren Begriffs der Polarisierung und der begrenzten Aussagekraft des Datenmaterials ist dies schwierig, zumal die empirische Analyse nicht nur Fragen beantwortet, sondern auch neue Fragen aufgeworfen hat und die vorliegenden Daten nicht sehr zeitnah sind. Trotz aller Einschränkungen lassen sich aber vielfältige Anzeichen einer Auseinanderentwicklung der Lebensverhältnisse einzelner Bevölkerungsgruppen feststellen. Diese äußern sich weniger in zusammenfassenden Verteilungsmaßen wie beispielsweise dem Gini-Koeffizienten als vielmehr in disaggregierten Betrachtungsweisen. So hat in Westdeutschland zwischen 1978 und 1993 sowohl der Bevölkerungsanteil, der in relativer Einkommensarmut lebt, als auch der Anteil der Reichen zugenommen. Dies könnte man als Polarisierungstendenz bezeichnen, wenn man Polarisierung allgemein als Prozeß der Herausbildung bzw. Vergrößerung von zwei weit auseinanderliegenden Einkommensgruppen versteht.32 Von der zunehmenden relativen Verarmung sind hauptsächlich Arbeitslosenhaushalte sowie Familien mit Kindern, insbesondere Alleinerziehende, betroffen, steigende gruppenspezifische Reichtumsquoten sind vorwiegend bei Selbständigen-, Angestellten- und Beamtenhaushalten sowie bei Paaren ohne Kinder zu beobachten. Die Gruppen der Alleinstehenden sind sehr heterogen, da sich hier sowohl überdurchschnittliche Armuts- als auch - mit Ausnahme der alleinstehenden älteren Frauen - überdurchschnittliche Reichtumsquoten zeigen; die Armutsquoten der jüngeren Alleinstehenden, insbesondere der Frauen, sind im Beobachtungszeitraum aber drastisch gestiegen, die Reichtumsquoten bei allen Alleinstehenden tendenziell gesunken. Neben diesen Tendenzen beinhaltet das nach wie vor starke West-Ost-Gefälle im Lebensstandard ein nicht zu unterschätzendes gesellschaftliches Spannungs- und Spaltungspotential. Die große Ungleichheit in der Einkommensverteilung wird von der Vermögensverteilung bei weitem übertroffen. Wenn man sich auf das Nettogrund- und Nettogeldvermögen (ausschließlich Zeitwerte der Kapitalversicherungsguthaben) beschränkt, verfügten 1988 die obersten 10% der Haushalte über fast die Hälfte des Gesamtvermögens, während die untere Hälfte der Haushalte weniger als 4% des Gesamtvermögens besaß. Diese krassen Gegensätze zeigen sich, obwohl die reichsten Haushalte in der Datenbasis nicht erfaßt sind. Für die Entwicklung der Konzentration der Vermögen zeigt sich im Zeitablauf keine eindeutige Tendenz. Die Ergebnisse für einzelne Jahre sind wegen unterschiedlicher Begriffsabgrenzungen nicht unmittelbar vergleichbar, die Erfassung des Vermögens ist generell unvollständig. In der Literatur wird eher von einer zunehmenden denn von einer abnehmenden Konzentration ausgegangen. Die bisher vorliegenden empirischen Verteilungsergebnisse decken allenfalls den Zeitraum bis 1993 ab. Seither hat sich die gesamtwirtschaftliche Situation aber deutlich verschlechtert. Die andauernden Arbeitsmarktprobleme und Kürzungen im Sozialleistungsbereich einerseits sowie "explodierende" Aktienkurse andererseits bergen zunehmende Gefahren einer nachhaltigen Spaltung der Gesellschaft. Es ist zu befürchten, daß unstetige Erwerbsverläufe mit der Folge unzureichender Sozialversicherungsansprüche künftig noch häufiger vorkommen werden und daß die Ungleichheit der Arbeitnehmereinkommen - auch durch die beobachtbare Zunahme untertariflicher Bezahlungen - steigen wird mit der Folge einer weiteren Verarmung insbesondere von Familien mit Kindern. Hinzu kommt, daß die von längerer Arbeitslosigkeit betroffenen Haushalte ihre Vermögensbestände aufzehren müssen oder sich gar verschulden, so daß ein Wiederaufstieg deutlich erschwert wird und auch die Vermögensverteilung noch ungleichmäßiger werden dürfte. Der Verteilungskonflikt wird sich darüber hinaus durch die in Gegenwart und Zukunft zu erwartenden Vererbungsvorgänge verschärfen. Hiervon profitieren nicht alle Haushalte gleichermaßen. Aufgrund sinkender Kinderzahlen ist mit einer Kumulierung von Vermögenswerten zu rechnen.33 Die in einigen politischen Kreisen befürwortete stärkere Einbeziehung der privaten Vermögensbestände zur Risikovorsorge, insbesondere für das Alter, ist angesichts der starken Vermögenskonzentration für den größten Teil der Bevölkerung wohl kaum eine realistische Alternative.
Die Untersuchung nimmt die Ratgeberliteratur für Mädchen im deutschen Kaiserreich in den Blick, insbesondere die geschlechtsspezifischen Vorgaben, die durch die Ratgeber proklamiert wurden. Außerdem wird dem Stellenwert der Ratgeberliteratur im alltäglichen und gesellschaftlichen Leben der Zeit nachgegangen und damit auch die Frage gestellt, inwiefern Ratgeberliteratur Einfluss auf das Leben junger Frauen und Mädchen nahm, um einen Beitrag zur Erforschung der Lesesozialisation der Adressatinnen zu leisten. Das aus der Untersuchung ansatzweise entwickelte Frauenbild könnte auf dem Gebiet der Gender Studies genutzt werden. Ebenso wäre es möglich, einen genauen Vergleich heutiger und damaliger Ratgeberliteratur anzustellen. Für diese Forschungsaufgaben liefert die vorliegende Arbeit Anregungen.
Markt- und wettbewerbsorientierte Reformstrategien in den Krankenhaussystemen zahlreicher Industrieländer haben Befürchtungen vor einer kommerzialisierten Krankenhausversorgung hervorgebracht. Dieser Beitrag unterbreitet einen analytischen Interpretationsrahmen zur Erklärung der internationalen Verbreitung dieser Reformstrategien und versucht die behaupteten negativen Effekte von Kommerzialisierungsprozessen auf Versorgungsqualität und Zugänglichkeit zu untersuchen. Gestützt auf einen Vergleich eines idealtypischen Kommerzialisierungsmodells mit dem institutionellen und organisatorischen Wandel im deutschen Krankenhaussystem kommt der Beitrag zu dem Schluss, dass Kommerzialisierungsprozesse in der Krankenhausversorgung bislang noch begrenzt sind. Obwohl ein markt- und wettbewerbsbasierter Umbau der Governancestrukturen zu beobachten ist und Krankenhäuser zu einer Kommerzialisierungsstrategie gedrängt werden, lässt sich aufgrund einer unzureichenden Daten- und Forschungslage bislang nicht empirisch feststellen, ob die Kommerzialisierungsprozesse zu einer Verschlechterung der Qualität und Zugänglichkeit der Krankenhausversorgung geführt haben.
Nationales Stigma und persönliche Schuld : die Debatte über Kollektivschuld in der Nachkriegszeit
(2009)
Statt die Kollektivschulddebatte der Nachkriegszeit als Abwehr eines nicht erhobenen Vorwurfes zu verurteilen, wird hier vorgeschlagen, im von den Zeitgenossen als Kollektivschuld bezeichneten Phänomen ein nationales Stigma zu sehen. Darunter wird der Ehr- und Ansehensverlust verstanden, der aus den von Deutschen begangenen Verbrechen resultierte. Der mythologisch-archaische Begriff Stigma liefert zugleich einen Schlüssel zur Analyse der Reaktion auf deutscher Seite. Beobachtet wurden Leugnen und Beschweigen als Versuche der Abwehr des Stigmas, das ja durch das Aussprechen und Sichtbarmachen der Verbrechen entsteht. Diesem archaischen Verhaltensmuster wird ein christlich-psychoanalytisches gegenübergestellt, das umgekehrt im Benennen und Bekennen der Schuld den ersten Schritt zur Heilung bzw. Erlösung durch Vergebung sieht.
Das vorliegende Arbeitspapier ist die unveränderte Fassung einer Diplomarbeit, die von Michael Grimm während einer Dauer von vier Monaten am Institut für Konjunktur, Wachstum und Verteilung der Universität Frankfurt a. M. geschrieben wurde. Die Ergebnisse der Analyse halte ich für so interessant, daß mir eine Veröffentlichung als Arbeitspapier im Rahmen des von mir geleiteten EVS-Projektes, dessen Daten die Grundlage der Arbeit bilden, als lohnend erscheint. Dadurch kann sichergestellt werden, daß die Untersuchungsergebnisse Interessierten zur weiteren Nutzung, sei es als reine Informationsgrundlage oder als Ausgangspunkt weiterer Analysen, zur Verfügung stehen. Die Studie beleuchtet die Verteilung von Geld- und Grundvermögen auf sozioökonomische Gruppen in der Bundesrepublik Deutschland. Als Datenbasis wurde eine Datenbank mit (anonymisierten) Individualdaten der Einkommens- und Verbrauchsstichprobe 1988 der Universität Frankfurt a. M. genutzt. Anknüpfend an frühere Arbeiten, die zu diesem Themenkomplex im Rahmen des Sonderforschungsbereichs 3 "Mikroanalytische Grundlagen der Gesellschaftspolitik" angefertigt wurden sowie durch Berücksichtigung von Daten zur EVS 1993, die zum Untersuchungszeitpunkt allerdings nur in tabellierter Form vorlagen, skizziert die Analyse eindrucksvoll die Entwicklung der Vermögensverteilung bis in die neunziger Jahre hinein. Dabei zeigt sich, daß die Verteilung des Vermögens, im Vergleich zur Verteilung der Einkommen, einen weiterhin sehr hohen Konzentrationsgrad aufweist. Insbesondere auf der Personenebene hat sich der Grad der Konzentration im Laufe der achtziger Jahre sogar noch verstärkt. Auch die Betrachtung der Verteilung auf sozio-ökonomische Gruppen zeigt viele interessante und neue Ergebnisse, so daß die Analyse ein echter Erkenntnisfortschritt ist. Es bleibt zu hoffen, daß weitere Arbeiten auf Basis der Einkommens- und Verbrauchs stichproben 1993 und 1998 sich der Entwicklung der Vermögensverteilung, insbesondere auch in den neuen Bundesländern, widmen und so eine langfristige Informationsgrundlage für Wirtschafts- und Sozialpolitik schaffen. Frankfurt am Main, im März 1998 (Richard Hauser)
Die Analyse von Entwicklungstendenzen der personellen Einkommensverteilung in der Bundesrepublik Deutschland hat ein hohes Maß an Stabilität ergeben. Trotz vielfältiger gesamtwirtschaftlicher und sozialer Wandlungsprozesse während des einbezogenen Vierteljahrhunderts (1962/63 bis 1988) deuten aggregierte Verteilungsmaße auf der Basis von Mikrodaten der Einkommens- und Verbrauchsstichproben (EVS) sehr mäßige Veränderungen der Verteilung der Nettoäquivalenzeinkommen an. Der sich zunächst abzeichnende leichte Trend zu verminderter Ungleichverteilung kehrte sich im letzten Jahrzehnt des Beobachtungszeitraums wieder um, so daß die meisten Verteilungsindikatoren 1988 wieder nahe den Werten zu Beginn der siebziger Jahre lagen. Zwischen 1978 und 1983 scheint sich insbesondere die Situation der untersten Schichten verschlechtert zu haben, wie die Entwicklung des Atkinson-Index bei hoher Ungleichheitsaversion, des Theil-Index und der Armutsquote - bei einer relativen Armutsgrenze von 50% des durchschnittlichen Nettoäquivalenzeinkommens - belegen. Ein Vergleich der Verteilungsentwicklung auf verschiedenen Stufen des Verteilungsprozesses zeigt, daß sich die primäre und die sekundäre Verteilung tendenziell auseinanderentwickelt haben. Beispielsweise ist der Gini-Koeffizient der Faktoräquivalenzeinkommen im Untersuchungszeitraum um 7% gestiegen, der der Nettoäquivalenzeinkommen um 11% gesunken. Das soziale Sicherungssystem scheint sich im Untersuchungszeitraum also im großen und ganzen bewährt zu haben. Dennoch deuten sich neuerdings wieder zunehmende Verteilungsprobleme und sozialpolitische Problemfelder an. Abgesehen von dem allgemeinen Anstieg der Armutsquote in den achtziger Jahren und der nach wie vor ungünstigen Position der (vollständigen) Familien mit mehreren Kindern zeigt sich insbesondere bei den Alleinerziehenden eine alarmierende Entwicklung. Ihre durchschnittliche Wohlstandsposition erreichte 1988 nur noch ca. vier Fünftel (Alleinerziehende mit einem Kind) bzw. drei Fünftel (Alleinerziehende mit mehreren Kindern) des durchschnittlichen Nettoäquivalenzeinkommens insgesamt. Die relativen Positionen der anderen Haushalts- bzw. Familientypen haben sich im Zeitablauf tendenziell eher dem Gesamtdurchschnitt angenähert, so daß eine Dekomposition von Verteilungsindikatoren eine eindeutige und anhaltende Dominanz der Intra-Gruppen-Ungleichheit gegenüber der Ungleichverteilung zwischen den Haushaltstypen ergibt (ca. 90% der insgesamt gemessenen Ungleichheit). Auch in der Differenzierung nach der sozialen Stellung des Haushaltsvorstands überwiegt die Intra-Gruppen-Ungleichheit die Inter-Gruppen-Komponente der Einkommensungleichverteilung um ein Vielfaches, und zwar in deutlich zunehmendem Maß. Eine zielgerichtete Sozial- und Verteilungspolitik sollte also nicht an traditionellen Kategorien bzw. Schichtmerkmalen - z.B. Arbeiterschicht versus Unternehmerschicht - anknüpfen, sondern die komplexen Einflußfaktoren, die die materielle Situation von Haushalten determinieren, und damit die Heterogenität von eindimensional abgegrenzten Gruppen berücksichtigen. Darüber hinaus hat die Untersuchung auf der Basis der EVS-Datenbank gezeigt, daß sich hinter einer insgesamt recht stabilen Einkommensverteilung vielfältige, sich kompensierende Einzelentwicklungen verbergen, die in der Sozial- und Familienpolitik beachtet werden sollten.
Überarbeitete Version des Arbeitspapiers "The dynamics of labour market participation, unemployment and non-participation in Great Britain, Sweden and Germany" / Wolfgang Strengmann-Kuhn. [Johann-Wolfgang-Goethe-Universität Frankfurt am Main, Fachbereich Wirtschaftswissenschaften, Institut für Volkswirtschaftslehre]
Einkommensverteilung in Deutschland : Strukturanalyse der Ungleichheit nach Einkommenskomponenten
(2000)
Ergebnisse von Verteilungsanalysen fallen je nach der Bezugseinheit - Haushalt oder Person - recht unterschiedlich aus. Dies gilt sowohl für das Niveau von Verteilungsindikatoren und deren Entwicklung im Zeitverlauf, als auch hinsichtlich der Beiträge einzelner Einkommens- und Abgabearten zu der gemessenen Ungleichheit. Auf der Basis der Einkommens- und Verbrauchsstichproben 1988 und 1993 und unter Verwendung der "älteren OECD-Skala" hat sich gezeigt, dass die Ungleichheit der personellen Verteilung der Nettoäquivalenzeinkommen im Beobachtungszeitraum in den alten Ländern zugenommen hat, aber nach wie vor wesentlich gleichmäßiger als die unveränderte Verteilung der Haushaltsnettoeinkommen auf Haushalte ist. In den neuen Ländern ist der Unterschied zwischen der haushaltsbezogenen und der personenbezogenen Einkommensverteilung noch deutlicher bei insgesamt geringerer Ungleichheit als in den alten Ländern. Auch die Zerlegung der aggregierten Ungleichheit nach Einkommenskomponenten führt zu teilweise abweichenden Ergebnissen in Abhängigkeit von der Bezugseinheit, da bei einzelnen Haushaltstypen im Durchschnitt jeweils unterschiedliche Einkommensarten dominieren. Entgegen gängigen Vorstellungen über Verteilungsstrukturen zeigt sich allerdings generell, dass die Verteilungsungleichheit zum größten Teil durch die Bruttoeinkommen aus unselbständiger Arbeit bestimmt wird. Zwar sind die Selbständigen- und Vermögenseinkommen erwartungsgemäß wesentlich ungleicher verteilt, durch ihren vergleichsweise geringen Anteil am Gesamteinkommen ist ihr Einfluss auf die Gesamtverteilung aber - insbesondere in Ostdeutschland, aber auch in Westdeutschland - begrenzt. Dies wird bei der Analyse der personellen Verteilung allerdings weniger deutlich als bei der Bezugnahme auf Haushalte. Wiederum im Gegensatz zu verbreiteten Annahmen wird die Ungleichheit der Verteilung der Haushaltseinkommen durch staatliche Transferzahlungen nicht oder nur unwesentlich gemildert. Dies ist aber nur auf den ersten Blick überraschend, da nur ein geringer Teil der Transfers vorrangig vertikalen, interpersonellen Umverteilungszielen dient. Die Leistungen der Sozialversicherung und vergleichbarer Systeme bezwecken hauptsächlich eine intertemporale Umverteilung und Lebensstandardsicherung bei Eintritt bestimmter Risikotatbestände (Alter, Tod des Ernährers, Unfall, Arbeitslosigkeit, Krankheit), so dass sie die Verteilung der Einkommen aus unselbständiger Arbeit abgeschwächt wiederspiegeln. Demzufolge geht auch von ihnen keine merkliche Verminderung der Ungleichheit der Nettoeinkommensverteilung auf der Haushaltsebene bzw. sogar eine leichte Erhöhung der Ungleichheit der personellen Verteilung der Nettoäquivalenzeinkommen in Westdeutschland aus. Aber selbst von den steuerfinanzierten Transfers geht unter Bezugnahme auf Haushalte insgesamt nur ein sehr geringer nivellierender Effekt aus. Hier wird die konzeptionelle Schwäche des analytischen Ansatzes am ungewichteten Haushaltseinkommen besonders deutlich. Denn mit dem Haushaltseinkommen wird ohne eine Berücksichtigung der Haushaltsgröße und -struktur die Bedarfssituation der Haushaltsmitglieder, die für viele steuerfinanzierte Transfers maßgeblich ist, nur unzureichend erfasst. Dementsprechend erweist sich der ausgleichende Effekt der Transfers der Gebietskörperschaften unter Bezugnahme auf Personen als recht deutlich, wenn auch in Westdeutschland im Vergleich zum Anteil am Einkommensaggregat als unterproportional. Bei einer weiteren Aufspaltung des heterogenen Komplexes der steuerfinanzierten Transfers in das einkommensunabhängige Kindergeld, Einkommensübertragungen mit Entschädigungscharakter und Transfers mit dem vorrangigen Ziel vertikaler Umverteilung zeigt sich aber auch für Westdeutschland eine weit überproportionale Reduzierung der Ungleichheit der Verteilung der Nettoäquivalenzeinkommen durch i. e. S. bedarfsabhängige Transfers. Absolut gesehen macht der ausgleichende Effekt zwar in den alten Ländern weniger als ein Zehntel, in den neuen Ländern ungefähr ein Fünftel der entsprechenden Effekte der persönlichen Steuern aus; unter Berücksichtigung des geringen Volumens der Transfers mit vorwiegend vertikaler Ausrichtung ergibt sich aber eine recht hohe Effizienz. Sie scheint in Westdeutschland zwischen 1988 und 1993 allerdings etwas zurückgegangen zu sein, ähnlich wie der ausgleichende Einfluss der persönlichen Steuern. Schließlich zeigt sich für das Kindergeld eine nur mäßige relative Reduzierung der Ungleichheit der personellen Einkommensverteilung, die 1993 in West- wie in Ostdeutschland nur ungefähr zwei Dritteln des Anteils am Einkommensaggregat entspricht. Dies ist angesichts der horizontalen Ausrichtung des Familienlastenausgleichs in Deutschland nicht verwunderlich, könnte aber für eine Zieldiskussion im Zusammenhang mit Reformüberlegungen Anlass geben.
Ziel der hier vorgestellten Arbeit ist es, einen Eindruck über die Größenordnung der Kosten eines Bürgergeldmodells als alternatives Grundsicherungssystem zu gewinnen. Dazu wurde eine formale („impact“-) Partialinzidenzanalyse mit Hilfe einer statischen Simulation auf der Basis von Mikrodaten der Einkommens- und Verbrauchsstichproben 1983 und 1988 durchgeführt. Die Ergebnisse können nur als ungefähre Orientierungspunkte interpretiert werden, zumal sie sich auf den Transferbereich beschränken. Bei der Konkretisierung des sozio-kulturellen Existenzminimums wurde im wesentlichen an das bestehende Sozialhilferecht angeknüpft, und für das anzurechnende Einkommen wurde schwerpunktmäßig ein Transferentzugssatz von 50% unterstellt. Die Berechnungen führen zu erheblichen Mehrkosten des Bürgergeldmodells gegenüber dem gegenwärtigen Nebeneinander verschiedener Mindestsicherungsleistungen (mit deutlich höheren Transferentzugssätzen), die z. gr. T. durch die auch oberhalb des Existenzminimums (bis zu dessen doppeltem Betrag) bestehenden potentiellen Ansprüche bedingt sind. Die Nettokosten hätten 1988 fast ein Drittel des Aufkommens der Lohn- und Einkommensteuer ausgemacht, so daß die hier vorgestellte Reformvariante als kaum finanzierbar bezeichnet werden kann. Es wäre wohl utopisch anzunehmen, daß die möglichen positiven Anreizeffekte des verminderten Transferentzugssatzes zu einer Senkung des Bürgergeldvolumens in ähnlicher Größenordnung führen würde. Mit Blick auf die Gegenwart ist zudem zu bedenken, daß seit der Wiedervereinigung das Transfervolumen im Falle der Einführung eines Bürgergeldes wesentlich höher als in der hier präsentierten Simulationsrechnung ausfallen dürfte, und zwar auch in Relation zum Volkseinkommen. Denn die schrittweise Angleichung der Einkommen in Ostdeutschland an das westdeutsche Niveau bewirkt, daß in der Übergangszeit die Haushaltseinkommen in den neuen Bundesländern vergleichsweise häufiger und tendenziell stärker unterhalb des Existenzminimums liegen als in Westdeutschland - es sei denn, für Ostdeutschland würde das relevante Existenzminimum deutlich niedriger als hier vorgeschlagen definiert; dies wäre aber nicht sinnvoll und politisch kaum tragbar. Eine Reform der sozialen Mindestsicherung nach dem Muster einer Negativen Einkommensteuer würde also zu erheblichen Mehrkosten führen. Bei allen Vorteilen, die ein Bürgergeldsystem mit 50%igem Transferentzugssatz haben mag, ist die Finanzierungsfrage völlig offen; bei höherem Transferentzugssatz wäre das Problem zwar weniger gravierend, aber nicht gelöst.
Im vorliegenden Papier werden drei Ansätze zur Reform des Familienleistungsausgleichs (FLA) mit jeweils zwei Varianten dargestellt und hinsichtlich ihrer fiskalischen Effekte und Wirkungen in verschiedenen Segmenten der Einkommensverteilung systematisch verglichen. – Mit dem weitestgehenden Konzept, der Kindergrundsicherung, wird ein Existenz sicherndes und zu versteuerndes Kindergeld in Höhe von monatlich 502 Euro bzw. 454 Euro pro Kind vorgeschlagen. Die bisherigen kindbedingten Freibeträge und mehrere Sozialleis-tungen könnten entfallen bzw. reduziert werden. – Daneben werden Kindergelderhöhungen auf einheitlich 238 Euro bzw. 328 Euro pro Kind und Monat, die allen Kindern – auch denen im SGB II-Leistungsbezug – zugute kommen sollen, untersucht. Das Kindergeld wäre wie bisher nicht zu versteuern, die bisherigen kindbedingten Freibeträge würden aber entfallen. – Schließlich wird der Vorschlag einer deutlichen Erhöhung des Kinderzuschlags bei reduzierter Mindesteinkommensgrenze und Wegfall der Höchsteinkommensgrenze erörtert. Zudem ist bei diesem Ansatz ein nochmals erhöhter Kinderzuschlag bei Alleinerziehenden – analog zum Mehrbedarfszuschlag nach dem SGFB II – (erste Variante) oder eine Herabsetzung der Transferentzugsrate auf Nichterwerbseinkommen von 100% auf 70% (zweite Variante) vorgesehen. Die zu erwartenden fiskalischen Belastungen der einfachen Kindergelderhöhung (ohne Be-steuerung) können ohne Weiteres hochgerechnet werden (16 bzw. 35 Mrd. Euro p. a.), die der anderen Reformmodelle sind aber ohne mikroanalytische Fundierung unter Berücksichtigung der Einkommensverteilung kaum abschätzbar. Zwar lassen sich auch die Bruttokosten der Kindergrundsicherung auf einfachem Wege ermitteln (Multiplikation der Kindergeld-Kinder mit der Betragshöhe), die Aggregate der davon abzusetzenden zahlreichen Einsparungen bei anderen Sozialleistungen und insbesondere der Steuermehreinnahmen sind allerdings nicht offensichtlich. Eine erste Überschlagsrechnung hat ergeben, dass die Nettokosten der ersten „großzügigen“ Variante der Kindergrundsicherung (502 Euro) denen der Kindergelderhöhung auf das sächliche Existenzminimum (322 Euro) ohne Besteuerung ungefähr gleich sind (in der Größenordnung von 35 Mrd. Euro). Eine genauere Quantifizierung kann aber nur auf der Ba-sis repräsentativer Mikrodaten und eines Simulationsmodells erfolgen, da insbesondere der Besteuerungseffekt der Kindergrundsicherung von der faktischen Einkommensverteilung abhängt. Auch eine Kostenschätzung für die Kinderzuschlagsreform bedarf mikroanalytischer Verfahren; ungeachtet dessen würde diese auf einen begrenzten Einkommensbereich gerichte-te Reform aber eindeutig die geringsten Kosten verursachen. Für einen systematischen Vergleich der Verteilungswirkungen der Reformvorschläge werden in der vorliegenden Arbeit Modellrechnungen für zwei ausgewählte Haushaltstypen präsen-tiert. Dabei wird deutlich, dass mit dem vergleichsweise begrenzten Konzept der Ausweitung des Kinderzuschlags die Situation von Familien in prekären Einkommensverhältnissen bis zu Familien der unteren Mittelschicht deutlich verbessert werden könnte. Inwieweit dieser Effekt eintreten würde, hängt allerdings auch vom Inanspruchnahmeverhalten ab; bisher ist die Nicht-Inanspruchnahme von Kinderzuschlag und Wohngeld weit verbreitet. Zudem würde sich die Situation der ärmsten Familien, die auf SGB II-Leistungen angewiesen sind, nicht verbessern, und am oberen Rand würden die Entlastungseffekte des FLA als Folge der kind-bedingten Freibeträge weiterhin mit dem elterlichen Einkommen zunehmen. Demgegenüber würden sich bei den Varianten der Kindergelderhöhung (ohne Besteuerung) die deutlichen Verbesserungen gegenüber dem Status quo gleichmäßig über das Einkommensspektrum vom Niedriglohnsegment – bei unverändert problematischen Effekten des Kinderzuschlags (Ein-kommensbruchstelle bei Höchsteinkommensgrenze) – bis in obere Schichten verteilen und erst am oberen Rand mit steigendem Einkommen sinken (infolge des Wegfalls der bisherigen kindbedingten Freibeträge). Die Förderungen durch die Kindergrundsicherung schließlich würden am stärksten im unteren und unteren Mittelbereich ausfallen und – im Gegensatz zu anderen Konzepten – insbesondere verdeckte Armut systembedingt, also quasi „automatisch“, weitgehend abbauen. Im oberen Mittelbereich und hauptsächlich in höheren Schichten würden die Transfers dagegen mit zunehmendem Einkommen kontinuierlich abnehmen. Insgesamt würde dies zu einem vergleichsweise stetig steigenden Verlauf des verfügbaren Familieneinkommens führen; die wegen der hohen Transferentzugsraten des Kinderzuschlags – gegebenenfalls in Kombination mit Wohngeld – häufigen Befürchtungen negativer Arbeitsanreize im unteren Einkommensbereich wären gegenstandslos. Inwieweit die hier diskutierten Reformkonzepte zu einem Abbau von Kinder- und Familien-armut und zu weniger Ungleichheit der personellen Einkommensverteilung führen können, lässt sich allein auf der Basis von Modellrechnungen allerdings nicht absehen. Dazu bedarf es detaillierter Analysen auf der Basis von repräsentativen Mikrodaten, die die faktische Ein-kommensverteilung abbilden und Simulationsrechnungen zur Quantifizierung der Effekte der Reformvarianten – unter Einbeziehung der Finanzierung der jeweiligen Nettokosten – ermöglichen. Daran wird im Projekt „Vom Kindergeld zu einer Grundsicherung für Kinder“ auf Basis der Daten des Sozio-ökonomischen Panels (SOEP) 2007 gearbeitet; die Repräsentativität des Datensatzes hinsichtlich des Nachweises von Einkommens-, insbesondere Transferar-ten wurde bereits geprüft – mit gutem Ergebnis.
Vom Kinderzuschlag zum Kindergeldzuschlag : ein Reformvorschlag zur Bekämpfung von Kinderarmut
(2007)
Ausgehend von einer kritischen Analyse des im Zuge der Hartz IV-Reform 2005 eingeführten Kinderzuschlags wird in der vorliegenden Studie ein Reformkonzept zur Bekämpfung von Kinderarmut entwickelt und eine quantitative Abschätzung der unmittelbaren Reformwirkungen vorgenommen. Bei der Gestaltung des Reformvorschlags wurde an Grundprinzipien des allgemeinen Familienleistungsausgleichs angeknüpft. Dieser sollte unabhängig von der jeweiligen Armutsursache das Existenzminimum des Kindes nicht nur von der Steuer freistellen, sondern im Bedarfsfall durch positive Transfers – mit einem Kindergeldzuschlag – gewährleisten. Dies erfordert a) die Aufstockung des Kindergeldes durch einen Zuschlag auf die Höhe des sächlichen Existenzminimums, also um maximal 150 Euro auf 304 Euro – bei Alleinerziehenden wegen besonderer Mehrbedarfe für das erste Kind um maximal 250 Euro auf 404 Euro; b) den Verzicht auf eine zeitliche Befristung des Kindergeldzuschlags; c) die Berücksichtigung des Familieneinkommen nach Abzug eines Freibetrages in Höhe des pauschalisierten Existenzminimums der Eltern bzw. des Elternteils (1.238 Euro bzw. 860 Euro); d) eine mäßige (mit Besteuerungsgrundsätzen vereinbare) Anrechnung des zu berücksichtigenden Einkommens – wir schlagen eine Transferentzugsrate von 50% vor; e) den Verzicht auf eine Berücksichtigung des Vermögens. Wesentliche Unterschiede des Reformkonzepts gegenüber dem derzeitigen Kinderzuschlag liegen in der Ersetzung der „spitzen“ Berechnung des elterlichen Existenzminimums durch eine Pauschale und in dem Verzicht zum Einen auf eine explizite Höchsteinkommensgrenze – aus der Transferentzugsrate ergibt sich freilich eine implizite Höchsteinkommensgrenze – und zum Anderen auf eine Mindesteinkommensgrenze. Es bleibt den Eltern also unbenommen, den Kindergeldzuschlag in Anspruch zu nehmen, selbst wenn ihre Einkommensverhältnisse und individuellen Wohnkosten auf einen höheren ALG II-Anspruch schließen lassen, den sie aber nicht wahrnehmen – sei es aus Stigmatisierungsangst, aus Unwissenheit, weil sie den Verweis auf kleine Ersparnisse befürchten oder sich von dem bürokratischen Aufwand abschrecken lassen. Aus vorliegenden Schätzungen geht hervor, dass aus den genannten Grün den das Ausmaß verdeckter Armut groß ist. Dem könnte durch einen vergleichsweise unbürokratischen Kindergeldzuschlag entgegengewirkt werden, insbesondere wenn der Leistungsträger, also die Familienkasse, verpflichtet wird, bei sehr geringem Einkommen des Antragstellers diesen auf möglicherweise bestehende höhere ALG II-Ansprüche hinzuweisen. Zur Abschätzung der unmittelbaren Reformwirkungen wurde ein Mikrosimulationsmodell entwickelt und mit den Daten des Sozio-ökonomischen Panels 2006 in mehreren Varianten gerechnet. Auf der Basis einer bereinigten Stichprobe ergeben sich – je nach Reformvariante – 3 Mio. bis 3,6 Mio. potenziell begünstigte Kinder, was etwa einem Sechstel bzw. einem Fünftel aller Kinder, für die Kindergeld bezogen wird, entspricht. Unter den Kindern von Alleinerziehenden würde die Empfängerquote mit gut einem Drittel weit überdurchschnittlich ausfallen. Die fiskalischen Bruttokosten des Reformmodells würden sich auf 3,7 Mrd. bzw. 4,5 Mrd. Euro jährlich (11% bzw. 13% der derzeitigen Kindergeldausgaben) belaufen; sie würden durch einige Einsparungen beim nachrangigen Wohngeld, bei ausbildungsbedingten Transfers sowie beim ALG II – sofern einige Anspruchsberechtigte den Bezug des Kindergeldzuschlags vorziehen – etwas vermindert werden. Der durchschnittliche Zahlbetrag pro Bedarfsgemeinschaft mit Anspruch auf Kindergeldzuschlag liegt bei 190 Euro p. M., der Median bei 150 Euro. Mit dem insgesamt begrenzten Mittelaufwand kann eine erhebliche Verminderung relativer Einkommensarmut von Familien erreicht werden. Die derzeit bei etwa 18% liegende Armutsquote von Kindern, für die Kindergeld bezogen wird, würde nach Einführung des Kindergeldzuschlags um etwa vier Prozentpunkte zurückgehen, die aller Mitglieder in den Familien von 16% um drei Prozentpunkte. Mit etwa zwei Dritteln lebt der größte Teil der potenziellen Anspruchsberechtigten in erwerbstätigen Familien, und die relative stärkste Verminderung der Armutsquote ergibt sich bei Familien mit Vollzeiterwerbstätigkeit. Die mit dem Kindergeldzuschlag zu bewirkende Verminderung von Kinderarmut würde wegen der hohen Erwerbsquote von Familien also mit einem Abbau von Armut trotz Arbeit einhergehen. Besonders große Reformwirkungen zeigen sich bei den Alleinerziehenden, für welche die Simulation eine Reduzierung der derzeit bei 40% liegenden Armutsquote um etwa acht Prozentpunkte ergibt. Dennoch verbliebe die Armutsquote auch nach Einführung des Kindergeldzuschlags auf einem bedrückend hohen Niveau. Dies ist ganz überwiegend auf die große Zahl der Alleinerziehenden mit Bezug von ALG II und Sozialgeld bzw. Sozialhilfe zurückzuführen, die annahmegemäß nach der Reform im Grundsicherungsbezug verbleiben, den vorrangigen Kindergeldzuschlag also nicht in Anspruch nehmen. Bei den Paarfamilien zeigt sich – relativ gesehen – ein ähnlicher Effekt des Kindergeldzuschlags wie bei den Alleinerziehenden; die Armutsquote von derzeit 12,5% würde um ein Fünftel auf 10% zurückgehen. Dabei fällt die Reformwirkung umso größer aus, je mehr Kinder in der Familie leben. Bei den trotz Einführung des Kindergeldzuschlags unter der relativen Armutsgrenze verbleibenden Paarfamilien handelt es sich zu einem geringeren Teil als bei den Alleinerziehenden um Empfänger von nachrangigen allgemeinen Grundsicherungsleistungen und zu einem größeren Teil um Fälle, bei denen auch das um den Kindergeldzuschlag erhöhte Einkommen die Armutsgrenze nicht erreicht. Ihre Situation würde sich dennoch durch die Reform erheblich verbessern, da die relative Armutslücke im Durchschnitt von 21% auf 14% zurückgehen würde; dies entspricht einer Einkommenserhöhung von durchschnittlich 267 Euro. Abschließend bleibt darauf hinzuweisen, dass der hier vorgestellte Reformvorschlag lediglich als erster Schritt zu einer allgemeinen Grundsicherung für Kinder zu verstehen ist. Er wurde unter dem Aspekt einer schnellen Umsetzbarkeit entwickelt, sollte aber weiter reichende Überlegungen nicht verdrängen. Diese haben nicht nur das sächliche Existenzminimum des Kindes, sondern darüber hinaus den verfassungsgerichtlich festgestellten Betreuungs- und Erziehungs- oder Ausbildungsbedarf (BEA) in den Blick zu nehmen. Er wird im Rahmen der Einkommensbesteuerung durch einen Freibetrag berücksichtigt (§ 32 Abs. 6 EStG), ist in die Bemessung des hier vorgestellten Kindergeldzuschlags aber nicht eingegangen. Eine systematische Weiterentwicklung des Familienleistungsausgleichs im Steuerrecht würde die Einführung eines einheitlichen (Brutto-) Kindergeldes zur Abdeckung von sächlichem Existenzminimum und BEA erfordern, das entsprechend der Leistungsfähigkeit der Eltern, also nach dem allgemeinen Einkommensteuertarif, zu versteuern wäre (Lenze 2007).
Die Auswertungen der EVS 2003 zur Höhe und Struktur der Konsumausgaben der Paarhaushalte mit einem Kind im unteren Einkommensbereich erfolgten vorrangig mit dem Ziel, Anhaltspunkte zur Beurteilung des gegenwärtigen Niveaus der mit Arbeitslosengeld II und Sozialgeld gegebenen Grundsicherung von Familien zu erarbeiten. Die Ergebnisse vermitteln einen ersten Eindruck über die insgesamt stark eingeschränkten Teilhabemöglichkeiten von Familien mit Bezug von Grundsicherungsleistungen. ...
Die vorliegende Untersuchung der effektiven Stundenlöhne in Deutschland erfolgte im Hin-blick auf die Frage nach der Ungleichheit ihrer Verteilung und der Einhaltung eines Kriteri-ums minimaler Leistungsgerechtigkeit. Ausgangspunkt ist die Annahme eines komplexen Gerechtigkeitsempfindens in der Gesellschaft, das neben dem Marktmechanismus als einem Motor für Leistung und leistungsabhängige Einkommen auch individuelle Anstrengungen sowie die Folgen faktischer Marktunvollkommenheiten bzw. faktischen Marktversagens berücksichtigt. Zur Approximation der ergänzenden Aspekte von Leistungsgerechtigkeit wird an relative Lohnpositionen angeknüpft: Lohneinkommen, die einen gesellschaftlichen Mittelwert sehr weit – bezogen auf den Durchschnitt um mehr als die Hälfte, und alternativ bezogen auf den Median um mehr als ein Drittel – unterschreiten, gelten als Indikator für Zielabweichungen. Implizit wird damit unterstellt, dass individuelle Leistungsunterschiede begrenzt, die aus dem Marktmechanismus folgende Differenzierungen aber grenzenlos sind. Die sich aus dem hier gewählten Kriterium ergebenden Niedriglohngrenzen entsprechen ungefähr alternativ abgeleiteten Grenzwerten, die aus der Norm folgen, dass eine Vollzeiterwerbstätigkeit mindestens das eigene sozio-kulturelle Existenzminimum zuzüglich einer Leistungskomponente sichern sollte. Neben dem Aspekt minimaler Leistungsgerechtigkeit für den unteren Rand der Verteilung werden keine weiteren konkreten Normen zur Beurteilung der Zielangemessenheit der beobachteten Verteilung der Lohnsätze gesetzt. Dies würde den Rahmen dieser Untersuchung sprengen. Die empirische Analyse auf Basis des Sozio-ökonomischen Panels (SOEP) und der Einkommens- und Verbrauchsstichprobe (EVS) konzentriert sich auf das Jahr 2003 und wird ergänzt um einige Auswertungen für 1998, die allerdings nur mit dem SOEP durchgeführt werden können. Obwohl aus dem SOEP generell eine größere Ungleichheit der Verteilung resultiert, halten sich die Unterschiede zwischen den Ergebnissen beider Datenquellen in Grenzen. ...
Zusammenfassung und Schlussfolgerungen Die verschiedenen Alternativrechnungen zur Bemessung des Eckregelsatzes auf Basis der Daten der EVS 2003 und der normativen Setzungen der derzeit gültigen Regelsatzverordnung (RSV) haben zu Beträgen leicht über (Variante 1b) bis mäßig unter (Variante 4b) dem gegenwärtigen Satz von 345 Euro geführt. Da sich aus einer kritischen Betrachtung der grundlegenden Vorentscheidungen, auf denen die RSV aufbaut, einige fragwürdige bzw. nicht konsistente Einzelregelungen ergeben haben, erscheint das seit 2005 gültige Niveau des gesetzlich anerkannten Existenzminimums als tendenziell zu gering, zumal der Eckregelsatz auch für den Leistungsanspruch von Familien mit Kindern maßgeblich ist. Darüber hinaus ist zu bedenken, dass die Herausnahme der Sozialhilfebezieher aus der Referenzgruppe gemäß RSV unter theoretischen Gesichtspunkten nicht hinreichend ist, um Zirkelschlüsse - vom Ausgabeverhalten der Hilfebedürftigen auf deren Existenzminimum - zu vermeiden. Denn nur etwa die Hälfte bis drei Fünftel der Bedürftigen nehmen ihre HLu-Ansprüche wahr, die weiteren Anspruchsberechtigten leben in verdeckter Armut. Die Referenzgruppe zur Ermittlung des sozio-kulturellen Existenzminimums müsste also auch um die so genannte Dunkelziffer der Armut (Personen in verdeckter Armut) bereinigt werden, was vermutlich zu einem leicht erhöhten (regelsatzrelevanten) Ausgabenniveau führen und Forderungen nach einer moderaten Anhebung des Eckregelsatzes unterstreichen würde. Abschließend soll der letztlich normative Charakter jeglicher Definition des Existenzmi-nimums nochmals verdeutlicht werden, aus dem die Notwendigkeit einer gesellschaftspoliti-schen Diskussion dessen, was ein menschenwürdiges Dasein und Chancengerechtigkeit - nicht nur im formalen, sondern im materiellen Sinne - ermöglicht, folgt. Dass mit dem so genannten Statistik-Modell der Regelsatzbemessung keineswegs Objektivität bzw. Wertur-teilsfreiheit, eher nur Überprüfbarkeit oder Nachvollziehbarkeit erreicht wird, haben die An-merkungen zu den regelsatzrelevanten Anteilssätzen einzelner Ausgabenpositionen in Kapitel 3.2 gezeigt. Wie stark der Einfluss normativer Vorentscheidungen auf das Niveau des sozio-kulturellen Existenzminimums ist, zeigt sich aber bereits in der Auswahl der Alleinstehenden als Referenzgruppe. Damit wird bei der Analyse des regelsatzrelevanten Ausgabeverhaltens auf eine Gruppe Bezug genommen, die überdurchschnittlich von relativer Einkommensarmut betroffen ist.13 Alternativ könnten auch die Paarhaushalte ohne Kinder mit ihrem vergleichs-weise geringen Armutsrisiko als Referenzgruppe definiert werden. Nach einer ersten Abschätzung ergibt sich für das unterste Quintil von Paaren ohne Kind ein regelsatzrelevanter Konsum in Höhe von gut 700 Euro; bei gegebenen Regelsatzproportionen folgt daraus ein Existenzminimum (ohne Kosten für Unterkunft und Heizung) von gut 390 Euro gegenüber derzeit 345 Euro bei Alleinstehenden und von etwa 1.130 Euro gegenüber 828 Euro bei Paa-ren mit einem Kind. Mit diesem Beispiel ist nicht die Empfehlung einer entsprechend starken Leistungsanhebung verbunden, sondern lediglich ein Hinweis darauf, dass das derzeitige Ver-fahren der Regelsatzbemessung restriktiv angelegt ist und mit aktuellen Daten eher eine Er-höhung als eine Absenkung des Niveaus des Existenzminimums begründet werden kann.
Sozialpolitische Auseinandersetzungen kursieren gegenwärtig verschärft um die Gestaltung der Sicherung des sozio-kulturellen Existenzminimums, um eine angebliche "Kostenexplosion" bei der Grundsicherung für Arbeitsuchende und um Vermutungen über verbreiteten Leistungsmissbrauch. Der Blick ist also stark auf die staatlicherseits auf Basis des Sozialgesetzbuches (SGB) über Transfers "zu bekämpfende" und "bekämpfte" Armut gerichtet. Vor diesem Hintergrund sollen die auf relative Grenzen – 50% des arithmetischen Mittels oder 60% des Medians der Nettoäquivalenzeinkommen – bezogenen Studien über Armut in Deutschland um eine Armutsanalyse ergänzt werden, die den Einkommensbereich unterhalb des gesetzlichen Existenzminimums in den Fokus nimmt. In der folgenden Untersuchung geht es nicht nur um die Größe der edürftigenBevölkerungsgruppe insgesamt, sondern darüber hinaus um die Bedeutung von Ursachen der Hilfebedürftigkeit – Arbeitslosigkeit, Teilzeiterwerbstätigkeit, niedriges Erwerbseinkommen, Alter –, um geschlechtsspezifische Unterschiede und um die Betroffenheit von Kindern. Hier fehlt es bisher an zeitnahen empirischen Informationen. Daten über die Zahl und Struktur der Empfänger von Grundsicherungsleistungen – also von Arbeitslosengeld II (Alg II) bzw. Sozialgeld, Grundsicherung im Alter und bei Erwerbsminderung oder Hilfe zum Lebensunterhalt (HLu) der Sozialhilfe – vermitteln nur die "halbe Wahrheit". ...
Wendet man sich der Frage nach dem Selbstverständnis und den Rollen von deutschen Intellektuellen nach 1945 zu, so muß man sich bewußt halten, daß vier, fünf wichtige Jahrzehnte der Geschichte 'des' modernen Intellektuellen - mit fast allen denkbaren diskursiven Zuschreibungen - bereits absolviert und auch realisiert sind. Es gab den Typus des Intellektuellen als Sprecher für universelle Werte (Gerechtigkeit, Wahrheit, Vernunft), der als Moralist die Unabhängigkeit des Geistes gegenüber der Macht behauptete. Es gab inzwischen aber auch zuhauf den 'intellektuellen Verräter', um es pointiert zu sagen, der im Namen einer partikularen National-, Rassen- oder Klassenidentität auftrat und als Ideologe einer säkularisierten Heilslehre mit einem totalitären Regime gemeinsame Sache machte; der also an die Kompatibilität von Geist und Macht glaubte oder sie opportunistisch praktizierte. Nazideutschland hatte genügend Beispiele hervorgebracht. Martin Heidegger, Carl Schmitt und Gottfried Benn (für ein reichliches Jahr) sind nur die berühmtesten. Doch auch linke Intellektuelle, und unter ihnen viele Schriftsteller, die als Parteikommunisten (oder "Kommunisten ohne Parteibuch") agierten, kann ich nicht anders denn als Abtrünnige von der universalen Mission der Intellektuellen sehen - im Licht unseres geschichtlichen Wissens selbst dann, wenn sie an ihre Mission und die Universalität der von ihnen vertretenen Werte glaubten.
Das "Carl- und Gerhart-Hauptmann-Haus" und das "Gerhart-Hauptmann-Haus / Haus Wiesenstein" sind zwei von vier Museen in Polen und Deutschland, die heute an Leben und Werk jenes Dichters erinnern, der als Enfant terrible des Kaiserreiches galt und laut einer Umfrage von 1906 der zweitbekannteste Deutsche nach dem Kaiser war. Auf der Ostsee-Insel Hiddensee entstand im "Haus Seedorn", dem ehemaligen Sommerhaus Hauptmanns und heutigen "Gerhart-Hauptmann-Haus", bereits 1956 eine Gedenkstätte, und in Erkner bei Berlin existierte 1957 im heutigen "Gerhart-Hauptmann-Museum Erkner", der so genannten "Villa Lassen", die Hauptmann von 1885 bis 1889 als junger Autor mit seiner Frau Marie bewohnte, ein erster bescheidener Gedenkraum. Jedes der vier – polnischen und deutschen – Museen repräsentiert eine je unterschiedliche Phase im Leben des Nobelpreisträgers, der bereits zu Lebzeiten in die Riege der Klassiker aufstieg und in der Weimarer Republik gar als Reichspräsidentschaftskandidat gehandelt wurde. 2003 vereinbarten die Museen eine verstärkte Zusammenarbeit und gründeten einen bislang einzigartigen grenzüberschreitenden Verbund, um mit vereinten Kräften für Gerhart Hauptmann und sein Werk werben zu können.
Hans-Georg Soldat rezensiert Günter de Bruyns Aufsatzsammlung "Deutsche Zustände. Über Erinnerungen und Tatsachen, Heimat und Literatur" aus dem Jahre 1999. Fast unversehens für den Leser weitet sich die Betrachtung jüngster Gegenwart zu einer subtilen Analyse ihrer Wurzeln, wird zu einer deutschen Geschichtsschreibung allgemein, zur Darstellung der Verdrängungsprozesse, die dabei in Ost und West gleichermaßen eine Rolle spielen. Das Überzeugende daran ist, dass dies ohne jeden Eifer geschieht, unaufgeregt, überlegen und dennoch unglaublich engagiert.
Hans-Georg Soldat rezensiert für NDR 3 / Radio 3 die im Jahr 2001 im Aufbau Taschenbuchverlag Berlin erschiene Aufsatzsammlung feuilletonistischer Arbeit "Ich bin ein Narr und weiß es" von Rolf Schneider. "Liebesaffären deutscher Literaten" ist der Untertitel des schmalen Bandes, hervorgegangen aus einer Serie für eine Berliner Tageszeitung - wobei der Begriff "Literaten" sehr weit gefasst wird. Zwanzig Geschichten um Liebe, erotische Verirrung, Abhängigkeit und oft schmerzhafte Trennung, einige etwas bekannter, manche ziemlich unbekannt, viele jedoch auch nur vergessen, weil die zugehörigen Schriftsteller bzw. Schriftstellerinnen nicht mehr präsent sind. Zur Berechtigung seines Feuilletons meint Rolf Schneider, sie seien "mehr als bloß eine Sammlung biographischer Pikanterien. Sie sind ein Stück Kultur- und Sittengeschichte." Was ebenso wahr wie banal ist, weil es auf jedes Schicksal zutrifft.
Hans-Georg Soldat rezensiert für NDR 3 / Radio 3 die 1999 im Suhrkamp Verlag erschiene tagebuchartige Essaysammlung "Das erste Jahr. Berliner Aufzeichnungen" von Durs Grünbein. Wieder erweist sich, welch Ausnahme-Autor der jetzt 38 jährige Durs Grünbein ist. Nicht nur, dass die Tagebuchaufzeichnungen in den Ablauf und die Vorgeschichte der deutschen Wiedervereinigung, ihre psychologischen Hemmnisse und spezifischen mentalen Schwierigkeiten, sie haben weit aus mehr zu bieten - literarische Miniaturen, Ausflüge in die Welt der Wissenschaft, Anekdoten aus dem Alltag. Nebenbei vermitteln sie sogar eine Ahnung von dem Werdegang dieses verschlossenen, ernsten Dichters.
Die Tricks und Schliche, mit denen Immobilienmakler arbeiten, um potentielle Interessenten über das Medium der Anzeigenwerbung zur Kontaktaufnahme zu bestimmen, sind äußerst vielfältig. Hierzu zählen zunächst die typischen Aufschneidereien, mit denen trickreich über die wirtschaftliche Bedeutung des Immobilienmaklers, seine Qualifikation und/oder Leistungsfähigkeit getäuscht wird; ferner Strategien, mittels derer die Maklereigenschaft des Inserenten verschleiert werden soll (sog. "maklerbezogene Irreführung"). Die Irreführungsgefahr ist in diesem Bereich besonders groß, weil eine Verifizierung der Werbeaussage für den Interessenten - wenn überhaupt - erst im Zuge einer ersten Kontaktaufnahme möglich ist. Entsprechendes gilt für Werbepraktiken, mit denen gezielt versucht wird, über vertragseingehungsrelevante Objektinformationen zu täuschen (sog. "objektbezogene Irreführung') Besonders auffällig ist in diesem Zusammenhang, daß Immobilienmakler - insbesondere was den Bereich der Preis- und Größenangaben angeht - häufig unzulässige Werbeangaben verwenden, die nicht nur besonders leicht zu überprüfen sind, sondern zudem auch völlig ungeeignet, etwaige Wettbewerbsvorteile auszulösen ("BagateUverstäße ~'). Überdies sind Werbestrategien auszumachen, mit denen - werbepsychologisch geschickt - versucht wird, potentielle Interessenten anzulocken, oder über gefühlsbetonte Appelle auf ihre Entscheidungsfreiheit absatzorientiert Einfluß zu nehmen. ... Ein Ende des "Absahnens durch Abmahnen" ist noch immer nicht in Sicht. Ungeachtet der Gesetzesänderungen in den Jahren 1986, 1994 und 2000 sind allein im Bereich der Immobilienwerbung derzeit ca. 15 Abmahn- und Gebührenvereine sowie weitere 17 (Schein-) Gewerbetreibende namentlich bekannt, die das Verfolgen von Wettbewerbsverstößen aktiv als Erwerbsquelle (Rechtsverfolgungskosten und Vertragsstrafen) betreiben; und die "Dunkelziffer" dürfte weitaus höher liegen! Genutzt, oder besser gesagt, ausgenutzt wird zu diesem Zweck in besonderem Maße das Abmahnverfahren, was insofern nicht weiter verwundert, als hier eine Darlegung der potentiellen Klagebefugnis ebenso wenig erforderlich, wie eine (gerichtliche) Prüfung - insbesondere auch was den Mißbrauchstatbestand angeht - vorgesehen ist. Besonders bemerkenswert ist in diesem Zusammenhang, daß sich die mißbräuchlichen Abmahnpraktiken fast ausschließlich gegen Bagatellverstöße (z.B. "ca.-Angaben", "Sonder- Afa", "Wfl/Nfl", etc.) richten, mithin gegen solche Wettbewerbsverstöße, die den Immobilienmaklern häufig in Unkenntnis oder aus bloßer Nachlässigkeit unterlaufen, den Schutzzweck des Wettbewerbsrechts nicht wirklich tangieren und (3) im Anzeigenteil leicht aufzuspüren und wegen ihrer Häufigkeit und Gleichartigkeit einfach zu verfolgen sind. ...
Seit den ersten Strafrechtsreformgesetzen von 1969 und 1970 sind in den letzten Jahren wieder Änderungen des Sanktionenrechts vorgenommen worden, und seit einiger Zeit sind weitere im Gespräch. Dazu zählt auch das Fahrverbot als alternative Hauptstrafe. .... Die Untersuchung beginnt (Teil A) mit der Darstellung und Erläuterung des Schuldprinzips und des Grundsatzes der schuldangemessenen Strafe, der in § 46 Absatz 1 StGB Ausdruck gefunden hat und auf dem Rechtsstaatsprinzip basiert. 13 Dabei werden die Aussagen "keine Strafe ohne Schuld" und "jede Strafe nur im Ausmaß der Schuld" deutlich hervorgehoben und ausgelegt und neben die Legitimationsgrundsätze des Strafens gestellt. Vor dem Hintergrund dieser Darlegung der Grundsätze von Schuld und Strafe wird die Bedeutung der "Schuld als pragmatisches Konstrukt der Begrenzung des Strafrechts" aufgezeigt.14 Dieses Konstrukt bildet die Ausgangsbasis für die Beschreibung und Erläuterung der verschiedenen Schuldbegriffe und für deren unterschiedliche Ansatzpunkte und Ausgestaltungen. Es wird mit Hilfe der genauen Betrachtung dieser Begriffe die Frage beantwortet, wie die Schuld inhaltlich gestaltet sein muß, um die staatliche Strafe und das Strafrecht zu begrenzen. Der zweite Hauptteil der Untersuchung (Teil B) wird eingeleitet mit der Metafrage nach den kriminalpolitischen Hintergranden fOr die Forderung nach neuen Alternativsanktionen. Hierbei wird auch Bezug genommen auf die gemeinnützige Arbeit und den elektronischen Hausarrest als alternative Hauptstrafen. Im Anschluß an diese Betrachtung wird das Fahrverbot als Hauptstrafe aufseine Fahigkeit hin untersucht, Wirksamkeit zu entfalten. Ferner wird umfassend der Frage nachgegangen, ob das Fahrverbot eine schuldangemessene Strafe darstellen und im Vergleich zu der zu ersetzenden Geldstrafe und der Freiheitsstrafe verfassungsrechtlichen Prinzipien gerecht werden kann. Bei dieser Prüfung, ob die neue Sanktionsalternative verfassungsgemaß ist, wird im Hinblick auf den 'das Strafrecht begrenzenden Schuldbegriff erörtert, inwiefern die Verhangung eines Fahrverbotes die von diesem gezogenen Grenzen tatsachlich einhalten kann. Darüber hinaus wird erörtert, wie es sich mit verfassungsrechtlichen Grundsatzen vertragt, wenn man, wie die derzeitige Justizministerin Däubler-Gmelin, eine Sanktion im Bereich der besonderen Strafempfindlichkeit des Bürgers ansiedeln möchte. Im dritten und letzten Teil der Arbeit (Teil C) werden die im zweiten Teil herausgearbeiteten Ergebnisse im Hinblick auf die Untersuchung eines vom Fahrzeugführen unabhängigen Fahrverbots als alternative Hauptstrafe zusammenfassend aufgeführt. Danach werden diese GeSichtspunkte auf die verschiedenen, im ersten Teil der Arbeit aufgeführten, Straftheorien projiziert. Dabei wird erörtert, ob ein Fahrverbot ohne bestehende Zusammenhangstat den Zielen und Zwecken der einzelnen Straftheorien gerecht werden kann.
Als im Jahr 1480 eine stattliche Anzahl von überwiegend bäuerlichen Zeugen zu den Rechtsverhältnissen der Schafweide zu Lautern östlich von Schwäbisch Gmünd befragt wurde, wußten etliche nicht ihr genaues Alter anzugeben. Wann ihr Erinnerungsvermögen einsetzte, datierten sie mit der Nennung allgemein bekannter Ereignisse, die im kollektiven Gedächtnis ihrer Zeitgenossen besonders verankert gewesen sein müssen. Ein Bauer aus Lauterburg gedachte "der vinsternuß und dess grossen sterbens". Ein anderer aus Unterkochen verwies auf den Armagnakeneinfall im Elsaß. Ein Schafknecht erinnerte sich an einen Blitzschlag in den Turm der Schwäbisch Gmünder Johanniskirche. Der alte Bantz von Mögglingen sagte aus, "er sye ee elter dann das mann vor Hochenzollern gelegen sy", und auch Lienhard Protolf bestimmte sein Alter nach diesem Ereignis, der Belagerung der Burg Hohenzollern durch ein Aufgebot der Reichsstädte und Württembergs 1422/1423. An erster Stelle aber steht der etwa dreißig Jahre zurückliegende Städtekrieg von 1449/50, der in den Aussagen von nicht weniger als acht Zeugen erwähnt wird.
Seit 2003 wird die Krankenhausvergütung in Deutschland schrittweise auf ein neues, leistungsorientiertes System auf Basis von Fallpauschalen (diagnosis related groups – DRG) umgestellt. Die Über gangsphase, in der gesonderte gesetzliche Regelungen gegolten hatten, sollte Ende 2008 auslaufen, weshalb der gesetzlichen Rahmen für die Nachkonvergenzzeit neu geregelt werden musste. Neben diesen technischen Regelungen und einem einheitlichen Bundesbasisfallwert standen auch die Reform der Investitionsfinanzierung, der weitere Ausbau des Wettbewerbes und die schlechte Finanzsituation der Krankenhäuser auf der Agenda des Krankenhausfinanzierungsreformgesetzes (KHRG). Aufgrund der heterogenen Interessenslagen von Bund und Ländern, gestaltete sich auch bei diesem Reformgesetz die Kompromisssuche schwierig. Herausgekommen ist ein Gesetz, dass die Reformpolitik der letzten Jahre weiterführt, die Aufgabe der zukünftigen Sicherstellung der bedarfsgerechten Versorgung aber nicht löst und die problematischen Auswirkungen des DRG-Systems negiert. Das Diskussionspapier zeichnet die wichtigsten Schritte des Gesetzgebungsprozesses nach, präsentiert und diskutiert die wichtigsten Inhalte des Gesetzes und ordnet das KHRG in den Reformkontext der letzten Jahre ein.
Kann gutes Latein in einem Bewerbungsgespräch von Vorteil sein? Folgt man der Argumentation eines im Herbst 1501 vor der Tübinger Universitätsöffentlichkeit aufgeführten Dialogs, so wird man diese Frage ohne weiteres bejahen müssen. Im vierten Akt tritt ein Hofbeamter des Königs - gemeint ist Maximilian I. - auf, der als Antwort eine kleine Geschichte erzählt. In Innsbruck wandte sich ein ansonsten durchaus gebildeter Mann an Kardinal Peraudi, Botschafter des Papstes im Reich, um sich um eine geistliche Stelle, eine Pfründe, zu bewerben. Er hatte kaum die Anrede in holprigem Latein gestottert, als ihm der Angesprochene auch schon bedeutete, er solle wegtreten. Der Bittsteller lief rot an und wurde fortan am Hof nicht mehr gesehen.
Die vorliegende Arbeit hat den Versuch gemacht, die den Ausschüssen in der Sozialversicherung, speziell im Bereich der gesetzlichen Unfallversicherung, zukommende zentrale Bedeutung aufzuzeigen. Viele wichtige Entscheidungen werden durch Ausschüsse getroffen, und zwar nicht nur durch besondere Ausschüsse LS.v. § 36 a SGB IV, sondern auch ganz maßgeblich durch Erledigungs- und Vorbereitungsausschüsse. Das Gesetz regelt Bildung und Tätigkeit von Ausschüssen bei den Sozialversicherungsträgern allerdings nur unvollständig. Abgesehen von der Vorschrift des § 36 a SGB IV enthält das SGB IV mit § 66 lediglich einige wenige Bestimmungen für den zahlenmäßig geringeren Teil der Ausschüsse, die Erledigungsausschüsse, die mit ihren Entscheidungen an die Stelle des jeweiligen Organs treten, während die Tätigkeit der Vorbereitungsausschüsse, die in der Praxis eine im doppelten Sinne "entscheidende" Rolle spielen, gesetzlich nicht geregelt ist. Die vom Schrifttum - soweit ersichtlich - nahezu einhellig vertretene Auffassung, die Tätigkeit von Vorbereitungsausschüssen unterliege keinerlei Bestimmungen, insbesondere nicht den für die Erledigungsausschüsse geltenden gesetzlichen Regelungen, ist abzulehnen. Die Praxis zeigt nämlich, daß die Vorbereitungsausschüsse im Zusammenwirken mit der hauptamtlichen Verwaltung einen maßgeblichen Teil der Arbeit für die Organe "erledigen", indem sie beschlußreife Vorlagen entwickeln, die dann in aller Regel von den Organen ohne jegliche bzw. ohne größere Diskussion und Änderungen sanktioniert werden, so daß die Gefahr besteht, daß sich die Organe selbst vielfach nur noch als Ratifikationsorgan oder - krasser ausgedrückt - als "Abstimmungsmaschinerie" verstehen, sie aber zumindest als solche angesehen werden müssen. Die gängige - in der Rechtslehre und in der Praxis anzutreffende - Auffassung, wonach die Tätigkeit von Vorbereitungsausschüssen quasi keinerlei Regelungen unterliegen soll, ist in ihrer Konsequenz aber umso unhaltbarer, als die Selbstverwaltungsorgane für ihre Arbeit demokratischer Legitimation bedürfen: ihre Entscheidungen müssen auf den Willen der Betroffenen, der Repräsentierten, zurückgeführt werden können. Die vorliegende Untersuchung hat aufgezeigt, daß die Organe umfassender demokratischer Legitimation bedürfen, was gleichermaßen für die Ausschüsse zu fordern ist. Der Gesetzgeber hat für die Erledigungsausschüsse Vorschriften (betreffend die Besetzung der Ausschüsse, die Öffentlichkeit von Ausschußsitzungen und - ansatzweise - die Festlegung übertragbarer Aufgaben) geschaffen, die im Grundsatz eine ausreichende Repräsentation des Willens der Betroffenen gewährleisten können. Für die Vorbereitungsausschüsse fehlt jegliche gesetzliche Regelung, so daß der Ruf nach dem Gesetzgeber naheläge. Andererseits sollten die Selbstverwaltungsträger im Hinblick auf das ihnen eingeräumte und ohnehin nur noch in Teilen verbliebene Selbstverwaltungsrecht möglichst geringen Einschränkungen - auch beim Einrichten und "Betreiben" von Ausschüssen - unterworfen werden, zumal die Ausschußarbeit wie auch die Zusammenarbeit zwischen Organen und Ausschüssen sowie der hauptamtlichen Verwaltung ohne größere Reibungen funktioniert. Damit stehen die Ausschüsse in einem Spannungsfeld von Selbstverwaltungsdemokratie und Verwaltungseffizienz. Die vorliegende Arbeit hat den Versuch gemacht, dieses Spannungsfeld aufzulösen. Die Erledigungsausschüsse unterliegen Schranken, die durch § 66 SGB IV gezogen werden. Die Regelungen des § 66 SGB IV bedürfen der Auslegung. Ergänzend können die überwiegend recht detaillierten kommunalverfassungsrechtlichen Regelungen bei der Bestimmung der Grenzen der Tätigkeit von Erledigungsausschüssen herangezogen werden - auch wenn die kommunalverfassungsrechtlichen Regelungen nicht einschränkungslos auf die Sozialversicherungsträger entsprechend angewendet werden können. Auf die Vorbereitungsausschüsse sind mangels gesetzlicher Regelungen einige der für Erledigungsausschüsse geltenden Vorschriften für sinngemäß anwendbar zu erklären. Im übrigen können auch bezüglich der Vorbereitungsausschüsse verschiedene kommunalverfassungsrechtliche Regelungen zur Bestimmung der Grenzen der Tätigkeit herangezogen werden. Insbesondere folgende wesentliche Feststellungen sind hinsichtlich der Arbeit von Ausschüssen in der gesetzlichen Unfallversicherung zu treffen: - Ein Ausschuß hat aus mindestens 4 Personen zu bestehen. Eine Ausschußgröße von 2 Personen bei gleichzeitiger Teilnahme einer bzw. mehrerer anderer Personen (z.B. Geschäftsführer/Bedienstete des Versicherungsträgers) an den Sitzungen reicht nicht aus. - Vorbereitungsausschüsse können nur aus den Reihen der Organmitglieder bzw. deren Stellvertretern besetzt werden, d.h. für organfremde Personen ist als Ausschußmitglieder kein Raum. - Vorbereitungsausschüsse müssen gruppenparitätisch zusammengesetzt sein. - Gemeinsame Ausschüsse von Vorstand und Vertreterversammlung sind unzulässig, ebenso getrennte Ausschüsse beider Organe, die gemeinsam tagen und gemeinsame Beschlüsse fassen. Zulässig sind lediglich getrennte Ausschüsse, die gemeinsam tagen, aber getrennte Beschlüsse fassen. - Die Vorbereitungsausschüsse der Vertreterversammlung haben - wie auch deren Erledigungsausschüsse - grundsätzlich öffentlich zu tagen. - Den Vorbereitungsausschüssen können Aufgaben jeglicher Art zur Vorberatung übertragen werden. - Das jeweilige Mutterorgan hat ein Rückhol-, Nachprüfungs- und Weisungsrecht gegenüber den Ausschüssen. - Die Information der Organmitglieder und ihrer Stellvertreter muß möglichst umfassend sein, um einerseits eine reibungslose Arbeit zu gewährleisten und andererseits die Defizite im Bereich demokratischer Legitimation auszugleichen. Hierzu gehört insbesondere die Übersendung der Sitzungsprotokolle auch an die Stellvertreter der Organmitglieder. Diese Aufzählung von an die Ausschußarbeit zu stellenden Anforderungen macht deutlich, daß Ausschußarbeit - und in besonderem Maße die Tätigkeit von Vorbereitungsausschüssen - nicht einfach als Tätigkeit nachgeordneter Gremien abgetan werden kann, die etwa im Rahmen des Selbstverwaltungsrechts weitgehend frei gestaltet werden könnte. Insbesondere das Erfordemis demokratischer Legitimation verlangt das Einhalten bestimmter Spielregeln, wobei der Tätigkeit von Vorbereitungsausschüssen in diesem Zusammenhang wegen fehlender gesetzlicher Regelungen besondere Bedeutung zukommt und diesen Ausschüssen damit auch besondere Beachtung zu schenken ist. Im Sinne der Selbsterhaltung der Selbstverwaltung bedarf es daher einer Einschränkung der Selbstgestaltung, deren Grenzen die vorliegende Arbeit aufzuzeigen versucht hat.
Thesenförmige Zusammenfassung der Untersuchungsergebnisse (1) Der Begriff der Finanzinstrumente untergliedert sich in originäre und derivative Finanzinstrumente und umfaßt somit alle Außenfinanzierungsbeziehungen sowie daraus abgeleitete Geschäfte. (2) Finanzderivate sind im Unternehmen zur Steuerung von Marktrisiken einsetzbar. Schwerpunkte des Einsatzes von Finanzderivaten bilden das Hedging, die Spekulation und die Arbitrage. (3) Zur bilanziellen Abbildung derivativer Finanzinstrumente enthält das deutsche Handelsrecht - von Vorschriften zur Fremdwährungsumrechnung bei Kreditinstituten abgesehen - keine expliziten Regelungen. Die Bilanzierung unternehmerisch eingesetzter Finanzderivate richtet sich daher nach den allgemeinen Bilanzierungsnormen, d.h. nach kodifizierten wie nicht kodifizierten GoB unter Orientierung am Sinn und Zweck des handelsrechtlichen Jahresabschlusses. Dieser besteht in der Ermittlung eines entziehbaren Betrages unter Beachtung der Interessen von Gesellschaftern und Unternehmensgläubigern; der Informationsvermittlung kommt de lege lata nur eine Nebenfunktion zu. (4) Die Bilanzierung spekulativer, d.h. nicht zu Sicherungszwecken eingesetzter Finanzderivate läßt sich innerhalb des GoB-Gefilges prinzipiengerecht lösen: Der Einzelbewertungsgrundsatz gebietet die bilanzielle Isolation von anderen Bilanzierungsobjekten, das Realisationsprinzip untersagt die erfolgswirksame Berücksichtigung festgestellter Marktwerterhöhungen, das Imparitätsprinzip erfordert die aufwandswirksame Antizipation von (Markt-)Bewertungsverlusten. (5) Schwierigkeiten bereitet eine GoB-konforme Bilanzierung sichernder Finanzderivate aufgrund einer offenen Dissonanz zwischen strengem EinzeIbewertungsgrundsatz und dem Prinzip der wirtschaftlichen Betrachtungsweise. Die aktuelle Bilanzierungspraxis sowie der überwiegende Teil des handelsrechtlichen Schrifttums versucht dieses Problem durch Einschaltung bilanzieller Bewertungseinheiten zu lösen. Hierzu werden - je nach verfolgter Bewertungseinheiten-Konzeption - auf unterschiedlichen Aggregationsebenen (Mikro-, Portfolio- oder Makro-Ebene) Finanzinstrumente zu Zwecken der bilanziellen Bewertung zusammengefaßt und saldiert bewertet. Lediglich ein verbleibender Bewertungsverlustüberhang ist gemäß dem Imparitätsprinzip aufwandswirksam zu erfassen; Bewertungsgewinnüberhänge bleiben nach dem Realisationsprinzip unberücksichtigt. Im Falle von Makro-Bewertungseinheiten soll eine Bewertung gänzlich unterbleiben. Um Eingang in eine bilanzielle Bewertungseinheit zu finden, sollen Finanzinstrumente verschiedene objektive und subjektive Anforderungskriterien erfiillen, welche jedoch hinsichtlich Qualität und Quantität innerhalb des Schrifttums in unterschiedlicher Strenge gesehen werden. (6) Sämtliche Bewertungseinheiten sind kritikwürdig auf grund mangelnder konzeptioneller Stringenz sowie aufgrund des großen Spielraums, der dem Bilanzierenden zur Gestaltung des Jahresergebnisses zwar nicht willentlich, jedoch faktisch eingeräumt wird. Die herrschenden Bewertungseinheiten-Konzepte sind de laga lata fragwürdig und teilweise abzulehnen. Sie eignen sich ebenfalls nicht als Ausgangsbasis für eine am Sinn und Zweck des handelsrechtlichen Jahresabschlusses ausgerichtete Bilanzierungsmethode de lege ferenda. (7) Die internationalen Rechnungslegungsstandards US-GAAP und lAS weisen neben Vorschriften bezüglich einer detaillierten Berichterstattung über finanzinstrumentelle Engagements auch explizite Normen zur Bilanzierung von Finanzinstrumenten auf Die Entwicklung bewegt sich hier in Richtung umfassender Vorgaben sowie einer breiten Marktbewertung. Gleichwohl ergeben sich Grenzen durch ein nach wie vor institutionalisiertes Hedge-Accounting und eine an Zwecksetzungen des Bilanzierenden ausgerichtete bilanzielle Vorgehensweise. Aus deutscher Sicht ist den derzeit bestehenden internationalen Standards zur Bilanzierung von Finanzinstrumenten weder de lege lata noch de lege ferenda zu folgen. (8) Hervorgehoben durch ein Diskussionspapier des lASC aus dem Jahre 1997 ergibt sich als stringente Methode zur bilanzielIen Abbildung originärer und derivativer Finanzinstrumente eine vollumfilngliche, ergebniswirksame Marktwertbilanzierung (reine Marktwertbilanzierung). Diese erfordert den BiJanzansatz jedes Finanzinstruments zum aktuellen Marktwert sowie die unmittelbar erfolgswirksame Erfassung festgestellter Bewertungsgewinne und -verluste. Die beachtlichen Vorzüge der reinen Marktwertbilanzierung bestehen in einem gänzlichen Verzicht auf die Bildung von Bewertungseinheiten bzw. auf ein Hedge-Accounting, wodurch bilanzielle Gestaltungsspielräume spürbar eingedämmt werden. Weiterhin zeichnet sich die reine Marktwertbilanzierung durch einen Ansatz aus, welcher originäre und derivative Finanzinstrumente sowohl der Aktiv- als auch der Passivseite gleichermaßen umfaßt, der Methodik der innerbetrieblichen Steuerung und Kontrolle von Finanzinstrumenten entspricht, eine verbesserte Informationsgewährung durch Bilanz und Gewinn- und Verlustrechnung ermöglicht und eine unkomplizierte Umsetzung gewährleistet. (9) Eine Rezeption der reinen Marktwertbilanzierung fiir Finanzinstrumente ist de lege lata aufgrund eindeutig entgegenstehender Gesetzesnormen nicht möglich. Indessen bildet die reine Marktwertbilanzierung eine de lege ferenda interessante Methode zur bilanziellen Abbildung derivativer und originärer Finanzinstrumente. Zur Übernalnne in die handelsrechtliche Rechnungslegung erfordert die reine Marktwertbilanzierung in erster Linie ein geändertes Verständnis des Realisationssowie des Imparitätsprinzips. Dies kann erreicht werden durch die Annalnne der Marktbewertung als Realisationstatbestand, eine ausgeprägte Abschlußstichtagsbetrachtung sowie die Befiirwortung der Eindämmung stiller Reserven. Insgesamt läßt sich zeigen, daß eine reine Marktwertbilanzierung konzeptionell zunächst nicht im Widerspruch zu Gläubiger- oder Gesellschafterinteressen steht. Gleichwohl konkretisieren sich die Schwachpunkte und damit das Scheitern einer reinen Marktwertbilanzierung an maßgeblichen Objektivierungsrestriktionen: Die Existenz eines Marktes für das zu bilanzierende Finanzinstrument, die Bewertbarkeit des Finanzinstruments durch den Markt sowie die sichere Realisierbarkeit festgestellter Bewertungsergebnisse stellen Voraussetzungen dar, welche zwar zu einer erfolgswirksamen Erfassung von Marktbewertungsergebnissen zu fordern sind, in Fällen bestimmter Finanzinstrumente hingegen nicht erfüllt werden. (10) Die streng vorsichtige Marktwertbilanzierung stellt eine Alternativmethode zur bilanziellen Abbildung von Finanzinstrumenten de lege ferenda dar, welche auf der reinen Marktwertbilanzierung autbaut. Kennzeichnend ist bier der Ansatz von Finanzinstrumenten zu ihrem Marktwert und die Erfassung festgestellter Bewertungsergebnisse auf einem bilanziellen Sonderposten zu Zwecken der Wertkompensation. Ein nach Saldierung auf diesem Sonderposten verbleibender Bewertungsverlustüberhang ist aufwandswirksam zu erfassen, während ein Bewertungsgewinnüberschuß erfolgsneutral abgegrenzt wird. Weiterhin sind nicht objektiv bewertbare Finanzinstrumente nach dem bisherigen Verständnis des Vorsichtsprinzips einzeln zu bilanzieren. Diese Bilanzierungsmethode weist gegenüber der überkommenen handelsrechtlichen Bilanzierung im wesentlichen die gleichen Vorteile wie die reine Marktwertbilanzierung auf: ist allerdings der gewachsenen handelsrechtlichen Denkweise eher verwandt. Konzeptionelle Schwächen der streng vorsichtigen Marktwertbilanzierung liegen in geringfiigigen bilanziellen Gestaltungsspielräumen sowie in einer kategorischen Ablehnung der Ertragswirksamkeit sämtlicher überschießenden Bewertungsgewinne. (11) Eine ,,Mischung" aus reiner und streng vorsichtiger Marktwertbilanzierung bildet die gemildert vorsichtige MarktwertbiIanzierung, welche im Rahmen dieser Arbeit als Methode zur Bilanzierung derivativer und originärer Finanzinstrumente de lege ferenda befiirwortet wird. Wesensmerkmal dieser Konzeption ist die an der Bewertungsqualität der zu bilanzierenden Finanzinstrumente ausgerichtete Vorgehensweise. Im Rahmen verschiedener Typisierungen von Anforderungskriterien sowie Ausnahmetatbeständen gestaltet sich die gemildert vorsichtige Marktwertbilanzierung im wesentlichen dreistufig: Finanzinstrumente höchster Bewertungsqualität, i.e. die meisten standardisierten Finanzinstrumente sowie nicht standardisierte Finanzinstrumente, welche unproblematisch duplizierbar (und damit glattstellbar) sind, machen einen Bilanzansatz zu M,arktwerten erforderlich; positive wie negative Marktwertänderungen werden erfolgswirksam erfaßt. Finanzinstrumente, die zwar objektiv bewertbar sind, deren unverzügliche GlattsteIlbarkeit jedoch als nicht gesichert angesehen werden kann, sind zu Marktwerten zu bilanzieren; Bewertungsverluste erlangen Aufwandswirksamkeit, und Bewertungsgewinne sind, soweit sie nach Wertkompensation verbleiben, erfolgsneutral abzugrenzen. Finanzinstrumenten ohne Sekundärmarkt bzw. ohne objektive Bewertbarkeit bleibt eine Marktbewertung verwehrt; diese sind nach dem geltenden Verständnis des Imparitätsprinzips einzeln zu bilanzieren. Die Vorzüge der gemildert vorsichtigen Marktwertbilanzierung für Finanzinstrumente gegenüber den ad legern latam vorgeschlagenen Bilanzierungsmethoden entsprechen grundSätzlich denen der reinen Marktwertbilanzierung, wobei die gemildert vorsichtige Marktwertbilanzierung auf grund ihrer differenzierenden Behandlung die Probleme der reinen Marktwertbilanzierung zusätzlich zu lösen vermag. Der hauptsächliche Nachteil der gemildert vorsichtigen Marktwertbilanzierung besteht in ihrer mitunter komplizierten Umsetzbarkeit. (12) Zinsswaps und Forward Rate Agreements (FRAs) verkörpern finanzwirtschaftlich Zinsderivate mit symmetrischem Risikoprofil und zivilrechtlich synallagmatische, schwebende Geschäfte. Weiterhin sind diese Instrumente anhand verfiigbarer Marktdaten mittels eines finanzwirtschaftlichen Modells objektiv und unkompliziert zu bewerten und zudem unverzüglich glattstellbar. Die Bilanzierung von Zinsswaps und FRAs ergibt sich de lege lata gemäß weitgehend eindeutiger GoB-Ausrichtung. Unter Anwendung der gemildert vorsichtigen Marktwertbilanzierung de lege ferenda ist für beide Finanzinstrumente die uneingeschränkt erfolgswirksame Bi1anzierung zu Marktwerten zu befürworten. (13) Zinsbegrenzungsvereinbarungen stellen optionsbasierte Finanzinstrumente mit einem mithin asymmetrischen Risikoprofil dar. Zu ihrer Bewertung ist ein Optionspreismodell heranzuziehen, welches zwar grundsätzlich eine objektive und marktorientierte Wertermittlung ermöglicht, jedoch einem Bereich noch nicht abgeschlossener finanzwirtschaftlicher Forschung entspringt. Zudem kann eine unverzügliche und unkomplizierte Glattstellbarkeit von Zinsbegrenzungsvereinbarungen nicht als gewährleistet angesehen werden. Die handelsrechtliche Bilanzierung von Zinsbegrenzungsvereinbarungen erfolgt unter weitgehend systematischer GoB-Orientierung. Nach Umsetzung der gemildert vorsichtigen Marktwertbilanzierung ergibt sich die Bilanzierung von Zinsbegrenzungsvereinbarungen zu ihrem modellmäßig ermittelten Marktwert, wobei lediglich Bewertungsverluste vollständige Erfolgswirksamkeit erfahren. Bewertungsgewinne, welche über eine Kompensation mit den Bewertungsverlusten anderer Finanzinstrumente hinausgehen, sind hingegen erfolgsneutral abzugrenzen.
Schuldenanstieg und Haftungsausschluss im deutschen Föderalstaat : zur Rolle des Moral Hazard
(2007)
Einleitung: Die deutschen Staatsschulden sind in den letzten Jahrzehnten kontinuierlich gestiegen. Künftige Generationen werden zusätzlich aufgrund der demographischen Entwicklung durch die umlagenfinanzierten sozialen Sicherungssysteme belastet. Gerade auch der Anstieg der Verschuldung der Bundesländer war in den letzten Jahrzehnten spürbar. So betrug die Verschuldung aller deutschen Bundesländer zusammengenommen 1991 noch 168 Mrd. Euro, während Anfang 2007 die Verschuldung 483 Mrd. Euro betrug, was eine knappe Verdopplung der Schuldenquote der Länder (Verschuldung in Prozent des BIP) auf ca. 21 Prozent impliziert. In der aktuellen Diskussion um die Reform des deutschen Föderalismus besteht Einigkeit in der Diagnose des Problems. Die Entwicklung der Staatsschulden ist kritisch und darf sich so nicht fortsetzen. Uneinigkeit herrscht hingegen über die Ursache des Anstiegs. Ebenfalls wird um die beste Möglichkeit, diesen zu bremsen, gerungen. Verschiedene Autoren argumentieren, dass der Verschuldungsanstieg der deutschen Bundesländer vor allem auf den Moral Hazard Anreiz zurückzuführen ist. Der vorliegende Diskussionsbeitrag diskutiert dies als einen der möglichen Gründe des Schuldenanstiegs. Hierzu wird zunächst das Konzept kurz eingeführt. Anschließend wird die bestehende empirische Evidenz für Deutschland diskutiert. Schließlich wird eine Bewertung und Einordnung in die aktuelle Debatte vorgenommen. Schlußbemerkungen: Im vorliegenden Diskussionsbeitrag wird das "Moral hazard" Problem als einer der möglichen Gründe für den beobachteten starken Anstieg der Verschuldung deutscher Bundesländer diskutiert. Es wurde gezeigt, dass die Finanzmärkte kaum auf die erheblichen Unterschiede in den fiskalischen Fundamentaldaten der Länder reagieren. Mit einer Fallstudie wurde außerdem verdeutlicht, dass das aktuelle Bundesverfassungsgerichtsurteil zu einer eventuellen Haushaltsnotlage von Berlin Berlin die Risikoeinschätzung der Märkte für deutsche Bundesländer nicht verändert hat. Alles in allem scheint es sinnvoll, über eine größere Beteiligung der Gläubiger an Risiken einzelner Länder nachzudenken. Dies dürfte aber den Schuldenanstieg nur bei bereits hoch verschuldeten Ländern begrenzen und möglicherweise einem Notlagenfall vorbeugen, nicht aber den grundsätzlichen "Defizit-Bias" der Finanzpolitik kompensieren. Insgesamt scheinen deswegen vorgelagerte Regeln notwendig, um den Anstieg der Verschuldung schon früh zu unterbinden und somit Belastungen zukünftiger Generationen zu reduzieren.
Inhalt: Vorwort Grußwort Vizepräsident Professor Dr. Ingwer Ebsen Grußwort Professor Dr. Helmut Siekmann Dr. Guntram B. Wolff : „Moral hazard und bail-out im deutschen Föderalstaat“ Ernst Burgbacher :„Erwartungen an die Föderalismusreform II – mehr Wettbewerb und mehr Autonomie für den deutschen Bundesstaat“ Professor Dr. Joachim Wieland : „Rechtsregeln für den Umgang mit extremen Haushaltsnotlagen“ Professor Dr. Kai A. Konrad : „Vorschläge zur wirksamen Verschuldungsbegrenzung der Länder“
Die vorliegende Arbeit hat das Ziel, eine Kulturgeschichte des türkischen Theaters und Kabaretts in der Bundesrepublik vorzustellen, deren Protagonisten (Organisatoren, Schriftsteller, Schauspieler und Regisseure) nunmehr bereits in die dritte Generation gehen, ohne dass die Geschichte der ersten Generation, der Initiatoren und bis heute treibenden Kraft dieses Theaters, je kohärent aufgezeichnet worden wäre. Darüber hinaus steht ein Generationswechsel an: das wird deutlich, sobald man sich in die 'Szene' begibt, in der es, wie meine Ausführungen zeigen werden, derzeit rumort, kreativ und destruktiv zugleich: Junge Künstler mit neuen Ideen drängen nach und fühlen sich nicht selten behindert von den 'Alten', die immer noch die Schalthebel besetzen und sich nicht davon abbringen lassen wollen, ihre Projekte nach altbewährten Methoden fortzuführen.
Governance und Vertragsstrukturen in der deutschen VC Industrie: eine empirische Einschätzung
(2009)
Diese Arbeit analysiert die wesentlichen Elemente der Vertragsstrukturen in der Venture Capital-Industrie. Aufbauend auf einem sehr umfangreichen und detaillierten Datensatz, der die Verträge zwischen Venture Capital-Investoren und deren Portfoliounternehmen abbildet, werden die Kontroll-, Entscheidungs- und Vetorechte einer detaillierten Analyse unterzogen. Dabei zeigt sich eine klare Tendenz in der Entwicklung der Vertragsstrukturen in Deutschland hin zu angelsächsisch strukturierten Verträgen. Dies beinhaltet unter anderem eine verstärkte Verwendung von Kontroll- und Entscheidungsrechten aber auch ein breiteres Spektrum dieser Rechte. Außerdem finden wir eine klare Interaktionen zwischen Kontrollrechten, Cash-Flow Rechten und Liquidationsrechten. Insbesondere ist zu betonen, dass Cash-Flow und Kontrollrechte einerseits und Stimmrechte und Aufsichtsratsanteile andererseits separat alloziiert werden und viele Kontrollrechte als Komplemente und nicht als Substitute zueinander aufgefasst werden müssen. JEL Classification: G24, G32, D86, D80, G34
Unter den Formeln, die das Wesen des Menschen pointieren sollen – zoon legon echon, animal rationale usw. – gibt es die etwas humoreske Gleichung: homo est animal quaerens cur, der Mensch ist das Tier, das nach dem Warum? fragt. Wir werden noch sehen: wenn der Mensch sich vom Tier abzuheben sucht, wird er gefährlich. Die Gefährlichkeit des Fragens wird in den Wissenschaften weitgehend geleugnet. ...
Aus mehreren Datenquellen wurde ein neuer globaler Niederschlagsdatensatz für die Zeit 1951-2000 generiert, der unter der Bedingung einer Mindestverfügbarkeit von 90 % genau 9.343 Stationen umfasst. Die betreffenden Zeitreihen wurden einer umfassenden Qualitätskontrolle unterzogen, was zu äußerst zahlreichen Korrekturen führte, einschließlich Tests auf Ausreißer und Homogenität sowie Homogenisierung. Daraus entstand ein Gitterpunktdatensatz in 0,5° x 0,5°- Auflösung, was für die Landgebiete (ausgenommen Grönland und Antarktis) rund 71.000 Gitterpunkte ergibt, und über INTERNET frei verfügbar bereitgestellt. Davon ausgehend und unter Nutzung weiterer vorliegender Datensätze, insbesondere der Temperatur, wurden zunächst einige grundlegende Untersuchungen zur globalen und regionalen Klima- und Niederschlagsvariabilität durchgeführt. Diese Arbeiten umfassten Analysen der Veränderungen des global gemittelten Niederschlages und potentieller Einflussgrößen, die Neuberechnung der globalen Klimaklassifikation nach Köppen, Untersuchungen zur raumzeitlichen Struktur von Niederschlagsänderungen global sowie speziell in Afrika und schließlich Analysen der raumzeitlichen Beziehungen zwischen großräumiger atmosphärischer Zirkulation und Niederschlag im nordatlantisch-europäischen Bereich. Für weitergehende statistische Analysen wurde eine neue Methode der vollständigen Zeitreihenmodellierung entwickelt, um die die in diesen Reihen enthaltenen signifikanten Variationskomponenten durch Regressionstechniken zu erfassen und in ihrem raumzeitlichen Verhalten darzustellen. Dabei lag ein Schwerpunkt dieser Arbeiten auf der Extremwertanalyse, die es nun gestattet, unabhängig vom Verteilungstyp für beliebige Schwellenwerte den zeitlichen Verlauf der Unter- sowie Überschreitungswahrscheinlichkeit anzugeben und somit zu erkennen, inwieweit das Klima extremer geworden ist. Dabei zeigte sich je nach Region die Gumbel- oder die Weibull-Verteilung als geeignet. Regionale Schwerpunkte waren dabei u.a. Deutschland bzw. Europa, auch hinsichtlich der Erstellung neuer Klimatrendkarten nach der üblichen linearen Methode (der kleinsten Quadrate) sowie der innovativen. Weiterhin wurden nach der innovativen Methode Klimamodelldaten des Hamburger Max-Planck-Instituts für Meteorologie (IPCC Szenario A2) hinsichtlich des Niederschlag-Extremverhaltens in Europa untersucht. Schließlich erfolgte eine Abschätzung der Wiederkehrzeiten täglicher Extremniederschläge in Deutschland und deren Unsicherheit.
In dieser Studie wurden stationsbezogene Messdaten der bodennahen Lufttemperatur, des Niederschlages und des Windes in Deutschland und zum Teil auch in Mitteleuropa für den Zeitraum 1901 bzw. 1951 bis 2000 im Hinblick auf Änderungen ihres Extremverhaltens untersucht. Hierfür wurde ein bimethodischer Ansatz gewählt. Die als Methode I bezeichnete "zeitlich gleitende Extremwertanalyse" definiert für den betrachteten (gleitenden) Zeitraum feste Schwellen. An die Zeitreihen der Schwellenüber- bzw. Unterschreitungen wurden sowohl empirische, als auch theoretische Häufigkeitsverteilungen angepasst, aus denen extremwert-theoretische Größen wie Wartezeitverteilung, Wiederkehrzeit und Risiko abgeleitet wurden. Die Methode II der "strukturorientierten Zeitreihenzerlegung" sucht, basierend auf einer zugrundegelegten theoretischen Verteilung, nach zeitabhängigen Parametern der zugehörigen Wahrscheinlichkeitsdichte. Hierdurch lassen sich zeitabhängige Wahrscheinlichkeiten für das Über- bzw. Unterschreiten von Schwellen angeben. Die gleitende Analyse zeigt bei Niederschlagsmonatsdaten in ganz Deutschland für untere Schranken einen Trend zu seltenerem Auftreten von Extremereignissen. Bei oberen Schranken ist hingegen im Osten einen Trend zu seltenerem, im Westen einen Trend zu häufigerem Auftreten von Extremereignissen zu erkennen. Im Osten ergibt sich also insgesamt ein Trend zu weniger extremen Monatsniederschlagssummen, im Westen ein Trend zu höheren onatsniederschlagssummen. Bei den Niederschlagstagesdaten, bei denen nur die Untersuchung oberer Schranken sinnvoll ist, sind die Ergebnistrends denen der Niederschlagsmonatsdaten in ihrer regionalen Verteilung ähnlich. Allerdings sind die Trends hier schrankenabhängig. Insbesondere in Norddeutschland ergibt sich dabei für relativ niedrige Schranken ein Trend zu kleineren Überschreitungshäufigkeiten, für hohe Schranken hingegen ein Trend zu größeren Überschreitungshäufigkeiten. Damit ergibt sich insgesamt ein Trend zu extremeren Tagesniederschlägen. Bei den Temperaturdaten zeigen die Ergebnisse der gleitenden Analyse der Monatsdaten mit wenigen Ausnahmen ein selteneres Unterschreiten unterer Schranken (also: Kälteereignis). Dieses Verhalten ist bei den Temperaturtagesdaten sogar flächendeckend zu beobachten. Für obere Schranken (also: Hitzeereignis) ergibt sich im allgemeinen ein Trend zu häufigerem Auftreten von Extremereignissen. Allerdings ist dieser Trend nicht flächendeckend zu beobachten. Vielmehr gibt es in allen Regionen Deutschlands einzelne Stationen, bei denen ein Trend zu seltenerem Überschreiten oberer Schranken festzustellen ist. Bei der "strukturorientierten Zeitreihenzerlegung" wurden folgende Ergebnisse erzielt: Die Wahrscheinlichkeitsdichten der monatlichen und saisonalen Temperatur-Daten weisen überwiegend positive Trends im Mittelwert auf, die Streuung hat sich hier nur in Ausnahmefällen verändert. Dies führte zu teilweise deutlich gestiegenen Wahrscheinlichkeiten für besonders warme Monats- und saisonale Mittel im 20. Jh. (Ausnahme: Herbst im Datensatz 1951 bis 2000). Entsprechend sanken in diesem Zeitraum verbreitet die Wahrscheinlichkeiten für extrem kalte Monats- und saisonale Mittel. Ebenso stiegen dieWahrscheinlichkeiten für Häufigkeiten von besonders warmen Tagen (über dem 10%-Perzentil) ab 1951 in allen Jahreszeiten, besonders im Winter für die Tagesmaximum-Temperaturen. Dies korrespondiert mit einer beschleunigten Häufigkeits-Abnahme von besonders kalten Tagen in allen Jahreszeiten, besonders in Süddeutschland. Beim Niederschlag dominieren ausgeprägt jahreszeitliche Unterschiede: Im Winter findet sich sowohl ein Trend zu höheren Monats- und saisonalen Summen, als auch eine erhöhte Variabilität, was verbreitet zu einer deutlichen Zunahme von extrem hohen Niederschlagssummen in dieser Jahreszeit führt. Im Sommer hingegen wurde ein Trend zu einer verringerten Variabilität gefunden, wodurch auch extrem hohe monatliche und saisonale Niederschlagssummen in weiten Teilen Mitteleuropas in dieser Jahreszeit seltener geworden sind. Entsprechend haben Tage mit hohen (über dem 10%-Perzentil) und auch extrem hohen (über dem 5%- und 2%-Perzentil) Niederschlagssummen im Sommer verbreitet abgenommen, in den anderen Jahreszeiten (vor allem im Winter und in Westdeutschland) jedoch zugenommen. Beim Wind sind die Ergebnisse recht uneinheitlich, so dass hier eine allgemeine Charakterisierung schwer fällt. Tendenziell nehmen die Häufigkeiten extremer täglicher Windmaxima im Winter zu und im Sommer ab. Dies gilt jedoch nicht für küstennahe Stationen, wo auch im Winter oft negative Trends extremer Tagesmaxima beobachtet wurden - In Süddeutschland hingegen finden sich auch im Sommer positive Trends in den Häufigkeiten extrem starker Tagesmaxima. Jedoch sind die untersuchten Daten (Windmaxima über Beaufort 8 und mittlere monatliche Windgeschwindigkeiten) wahrscheinlich mit großen Messfehlern behaftet und zudem für die hier durchgeführten Analysen nur bedingt geeignet. Es hat sich somit gezeigt, dass das Extremverhalten von Klimaelementen, wie Temperatur und Niederschlag, im 20. Jhr. sehr starken Änderungen unterworfen war. Diese Änderungen im Extremen wiederum sind sehr stark von Änderungen des "mittleren" Zustandes dieser Klimaelemente abhängig, welcher durch statistische Charakteristika wie Mittelwert und Standardabweichung (bzw. allgemeiner Lage und Streuung) beschrieben werden kann.
Rezension des Werkes: Autor(en): Wiese, Christian Titel: Wissenschaft des Judentums und protestantische Theologie im wilhelminischen Deutschland. Ein Schrei ins Leere? Mit einem Vorwort von Susannah Heschel Reihe: Schriftenreihe wissenschaftlicher Abhandlungen des Leo Baeck Instituts, Bd. 61 Ort: Tübingen Verlag: Mohr Siebeck Jahr: 1999 ISBN: 3-16-147201-2 Umfang/Preis: XXV, 507 S.; DM 168,00 Der Titel ist Programm: Bei der hier zu besprechenden Arbeit von Christian Wiese, seiner 1997 an der Johann-Wolfgang-Goethe-Universität Frankfurt am Main abgeschlossenen Dissertation, handelt es sich um die Darstellung der Auseinandersetzung zwischen der protestantischen Universitätstheologie und einigen der führenden Vertreter der Wissenschaft des Judentums im wilhelminischen Kaiserreich. Nicht mehr, aber auch nicht weniger. Dem Judaisten und Theologen Wiese gelingt es dabei, kenntnisreich, quellensatt und in großer Klarheit die einzelnen Kontroversen (er selbst spricht von "Diskursen") innerhalb jener Auseinandersetzung nachzuzeichnen und zu analysieren. ...