Refine
Year of publication
Document Type
- Working Paper (1015) (remove)
Language
- German (1015) (remove)
Has Fulltext
- yes (1015) (remove)
Keywords
- Deutschland (108)
- Anton Ulrich <Braunschweig-Wolfenbüttel (18)
- Herzog> / Octavia (18)
- Corporate Governance (17)
- Mobilität (17)
- Kapitalmarktrecht (15)
- Aktienrecht (14)
- USA (13)
- Börsenrecht (11)
- Deutsch (11)
Institute
- Rechtswissenschaft (253)
- Wirtschaftswissenschaften (190)
- Center for Financial Studies (CFS) (93)
- Sustainable Architecture for Finance in Europe (SAFE) (65)
- House of Finance (HoF) (59)
- Geographie (53)
- Gesellschaftswissenschaften (46)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (41)
- Institut für sozial-ökologische Forschung (ISOE) (41)
- Institute for Monetary and Financial Stability (IMFS) (41)
Während des Untersuchungszeitraums (1980 – 1999 einschließlich) ist sowohl die Zahl der Aktiengesellschaften in Deutschland insgesamt als auch die Zahl der börsennotierten Gesellschaften gestiegen. Dabei verlief der Anstieg nicht gleichförmig. Während beide Zahlen sich in den Jahren 1980 bis 1990 nur unwesentlich veränderten, ist für die Jahre nach 1996 ein geradezu sprunghafter Anstieg der absoluten Zahl von Gesellschaften zu verzeichnen. Die Zunahme börsennotierter Gesellschaften blieb demgegenüber im Verhältnis eher gering. Während die Zahl der Gesellschaften insgesamt sich im Untersuchungszeitraum um das 3,5-fache erhöht hat, hat sich die Gesamtzahl börsennotierter Aktiengesellschaften lediglich verdoppelt.
Gerichte können einem Täter, der wegen Straftaten verurteilt wurde, die auf seinen Suchtmittelkonsum zurückgehen, die Weisung erteilen, jeglichen Alkoholkonsum zu unterlassen und sich entsprechenden Kontrollen zu unterziehen. Die Kontrolle der Weisungen stößt jedoch bislang an enge Grenzen. Bisher kann deren Einhaltung nur stichprobenartig überprüft werden. Einen neuen Ansatz bietet eine kontinuierliche (transdermale) Alkoholüberwachung mittels eines am Fußgelenk getragenen Messgerätes. Ein Blick in die USA zeigt, dass die elektronische Überwachung des Alkoholkonsums erprobt wurde und sich durchgesetzt hat. Der Beitrag untersucht die Bedeutung einer kontinuierlichen transdermalen Alkoholüberwachung für die Abstinenzkontrolle und inwieweit diese Methode im deutschen System verankert werden kann.
Aus mehreren Datenquellen wurde ein neuer globaler Niederschlagsdatensatz für die Zeit 1951-2000 generiert, der unter der Bedingung einer Mindestverfügbarkeit von 90 % genau 9.343 Stationen umfasst. Die betreffenden Zeitreihen wurden einer umfassenden Qualitätskontrolle unterzogen, was zu äußerst zahlreichen Korrekturen führte, einschließlich Tests auf Ausreißer und Homogenität sowie Homogenisierung. Daraus entstand ein Gitterpunktdatensatz in 0,5° x 0,5°- Auflösung, was für die Landgebiete (ausgenommen Grönland und Antarktis) rund 71.000 Gitterpunkte ergibt, und über INTERNET frei verfügbar bereitgestellt. Davon ausgehend und unter Nutzung weiterer vorliegender Datensätze, insbesondere der Temperatur, wurden zunächst einige grundlegende Untersuchungen zur globalen und regionalen Klima- und Niederschlagsvariabilität durchgeführt. Diese Arbeiten umfassten Analysen der Veränderungen des global gemittelten Niederschlages und potentieller Einflussgrößen, die Neuberechnung der globalen Klimaklassifikation nach Köppen, Untersuchungen zur raumzeitlichen Struktur von Niederschlagsänderungen global sowie speziell in Afrika und schließlich Analysen der raumzeitlichen Beziehungen zwischen großräumiger atmosphärischer Zirkulation und Niederschlag im nordatlantisch-europäischen Bereich. Für weitergehende statistische Analysen wurde eine neue Methode der vollständigen Zeitreihenmodellierung entwickelt, um die die in diesen Reihen enthaltenen signifikanten Variationskomponenten durch Regressionstechniken zu erfassen und in ihrem raumzeitlichen Verhalten darzustellen. Dabei lag ein Schwerpunkt dieser Arbeiten auf der Extremwertanalyse, die es nun gestattet, unabhängig vom Verteilungstyp für beliebige Schwellenwerte den zeitlichen Verlauf der Unter- sowie Überschreitungswahrscheinlichkeit anzugeben und somit zu erkennen, inwieweit das Klima extremer geworden ist. Dabei zeigte sich je nach Region die Gumbel- oder die Weibull-Verteilung als geeignet. Regionale Schwerpunkte waren dabei u.a. Deutschland bzw. Europa, auch hinsichtlich der Erstellung neuer Klimatrendkarten nach der üblichen linearen Methode (der kleinsten Quadrate) sowie der innovativen. Weiterhin wurden nach der innovativen Methode Klimamodelldaten des Hamburger Max-Planck-Instituts für Meteorologie (IPCC Szenario A2) hinsichtlich des Niederschlag-Extremverhaltens in Europa untersucht. Schließlich erfolgte eine Abschätzung der Wiederkehrzeiten täglicher Extremniederschläge in Deutschland und deren Unsicherheit.
Das Potsdamer Manifest ist ein inspirierender und zugleich irritierender Text. Er hat einen spezifischen Entstehungskontext, die Autoren intervenieren damit in eine politisch-intellektuelle Debatte, laden zum Weiterdenken ein und wollen viel bewirken. Ich habe das Manifest aus diesem Kontext gelöst und es in Beziehung zur eigenen Arbeit gesetzt. Meine Lektüre erfolgt also aus einem recht engen Blickwinkel. Ich arbeite seit vielen Jahren im Frankfurter Institut für sozial-ökologische Forschung im Grenzbereich zwischen Natur- und Sozialwissenschaften. Aus dieser Perspektive ist die Frage besonders interessant, wie in dem Manifest das Verhältnis zwischen menschlichgesellschaftlichen Lebenszusammenhängen und der belebten und unbelebten Natur gesehen und beschrieben wird. Auf diese Frage werde ich mich konzentrieren.
Die Auswertungen der EVS 2003 zur Höhe und Struktur der Konsumausgaben der Paarhaushalte mit einem Kind im unteren Einkommensbereich erfolgten vorrangig mit dem Ziel, Anhaltspunkte zur Beurteilung des gegenwärtigen Niveaus der mit Arbeitslosengeld II und Sozialgeld gegebenen Grundsicherung von Familien zu erarbeiten. Die Ergebnisse vermitteln einen ersten Eindruck über die insgesamt stark eingeschränkten Teilhabemöglichkeiten von Familien mit Bezug von Grundsicherungsleistungen. ...
Ziel der hier vorgestellten Arbeit ist es, einen Eindruck über die Größenordnung der Kosten eines Bürgergeldmodells als alternatives Grundsicherungssystem zu gewinnen. Dazu wurde eine formale („impact“-) Partialinzidenzanalyse mit Hilfe einer statischen Simulation auf der Basis von Mikrodaten der Einkommens- und Verbrauchsstichproben 1983 und 1988 durchgeführt. Die Ergebnisse können nur als ungefähre Orientierungspunkte interpretiert werden, zumal sie sich auf den Transferbereich beschränken. Bei der Konkretisierung des sozio-kulturellen Existenzminimums wurde im wesentlichen an das bestehende Sozialhilferecht angeknüpft, und für das anzurechnende Einkommen wurde schwerpunktmäßig ein Transferentzugssatz von 50% unterstellt. Die Berechnungen führen zu erheblichen Mehrkosten des Bürgergeldmodells gegenüber dem gegenwärtigen Nebeneinander verschiedener Mindestsicherungsleistungen (mit deutlich höheren Transferentzugssätzen), die z. gr. T. durch die auch oberhalb des Existenzminimums (bis zu dessen doppeltem Betrag) bestehenden potentiellen Ansprüche bedingt sind. Die Nettokosten hätten 1988 fast ein Drittel des Aufkommens der Lohn- und Einkommensteuer ausgemacht, so daß die hier vorgestellte Reformvariante als kaum finanzierbar bezeichnet werden kann. Es wäre wohl utopisch anzunehmen, daß die möglichen positiven Anreizeffekte des verminderten Transferentzugssatzes zu einer Senkung des Bürgergeldvolumens in ähnlicher Größenordnung führen würde. Mit Blick auf die Gegenwart ist zudem zu bedenken, daß seit der Wiedervereinigung das Transfervolumen im Falle der Einführung eines Bürgergeldes wesentlich höher als in der hier präsentierten Simulationsrechnung ausfallen dürfte, und zwar auch in Relation zum Volkseinkommen. Denn die schrittweise Angleichung der Einkommen in Ostdeutschland an das westdeutsche Niveau bewirkt, daß in der Übergangszeit die Haushaltseinkommen in den neuen Bundesländern vergleichsweise häufiger und tendenziell stärker unterhalb des Existenzminimums liegen als in Westdeutschland - es sei denn, für Ostdeutschland würde das relevante Existenzminimum deutlich niedriger als hier vorgeschlagen definiert; dies wäre aber nicht sinnvoll und politisch kaum tragbar. Eine Reform der sozialen Mindestsicherung nach dem Muster einer Negativen Einkommensteuer würde also zu erheblichen Mehrkosten führen. Bei allen Vorteilen, die ein Bürgergeldsystem mit 50%igem Transferentzugssatz haben mag, ist die Finanzierungsfrage völlig offen; bei höherem Transferentzugssatz wäre das Problem zwar weniger gravierend, aber nicht gelöst.
Zusammenfassung und Schlussfolgerungen Die verschiedenen Alternativrechnungen zur Bemessung des Eckregelsatzes auf Basis der Daten der EVS 2003 und der normativen Setzungen der derzeit gültigen Regelsatzverordnung (RSV) haben zu Beträgen leicht über (Variante 1b) bis mäßig unter (Variante 4b) dem gegenwärtigen Satz von 345 Euro geführt. Da sich aus einer kritischen Betrachtung der grundlegenden Vorentscheidungen, auf denen die RSV aufbaut, einige fragwürdige bzw. nicht konsistente Einzelregelungen ergeben haben, erscheint das seit 2005 gültige Niveau des gesetzlich anerkannten Existenzminimums als tendenziell zu gering, zumal der Eckregelsatz auch für den Leistungsanspruch von Familien mit Kindern maßgeblich ist. Darüber hinaus ist zu bedenken, dass die Herausnahme der Sozialhilfebezieher aus der Referenzgruppe gemäß RSV unter theoretischen Gesichtspunkten nicht hinreichend ist, um Zirkelschlüsse - vom Ausgabeverhalten der Hilfebedürftigen auf deren Existenzminimum - zu vermeiden. Denn nur etwa die Hälfte bis drei Fünftel der Bedürftigen nehmen ihre HLu-Ansprüche wahr, die weiteren Anspruchsberechtigten leben in verdeckter Armut. Die Referenzgruppe zur Ermittlung des sozio-kulturellen Existenzminimums müsste also auch um die so genannte Dunkelziffer der Armut (Personen in verdeckter Armut) bereinigt werden, was vermutlich zu einem leicht erhöhten (regelsatzrelevanten) Ausgabenniveau führen und Forderungen nach einer moderaten Anhebung des Eckregelsatzes unterstreichen würde. Abschließend soll der letztlich normative Charakter jeglicher Definition des Existenzmi-nimums nochmals verdeutlicht werden, aus dem die Notwendigkeit einer gesellschaftspoliti-schen Diskussion dessen, was ein menschenwürdiges Dasein und Chancengerechtigkeit - nicht nur im formalen, sondern im materiellen Sinne - ermöglicht, folgt. Dass mit dem so genannten Statistik-Modell der Regelsatzbemessung keineswegs Objektivität bzw. Wertur-teilsfreiheit, eher nur Überprüfbarkeit oder Nachvollziehbarkeit erreicht wird, haben die An-merkungen zu den regelsatzrelevanten Anteilssätzen einzelner Ausgabenpositionen in Kapitel 3.2 gezeigt. Wie stark der Einfluss normativer Vorentscheidungen auf das Niveau des sozio-kulturellen Existenzminimums ist, zeigt sich aber bereits in der Auswahl der Alleinstehenden als Referenzgruppe. Damit wird bei der Analyse des regelsatzrelevanten Ausgabeverhaltens auf eine Gruppe Bezug genommen, die überdurchschnittlich von relativer Einkommensarmut betroffen ist.13 Alternativ könnten auch die Paarhaushalte ohne Kinder mit ihrem vergleichs-weise geringen Armutsrisiko als Referenzgruppe definiert werden. Nach einer ersten Abschätzung ergibt sich für das unterste Quintil von Paaren ohne Kind ein regelsatzrelevanter Konsum in Höhe von gut 700 Euro; bei gegebenen Regelsatzproportionen folgt daraus ein Existenzminimum (ohne Kosten für Unterkunft und Heizung) von gut 390 Euro gegenüber derzeit 345 Euro bei Alleinstehenden und von etwa 1.130 Euro gegenüber 828 Euro bei Paa-ren mit einem Kind. Mit diesem Beispiel ist nicht die Empfehlung einer entsprechend starken Leistungsanhebung verbunden, sondern lediglich ein Hinweis darauf, dass das derzeitige Ver-fahren der Regelsatzbemessung restriktiv angelegt ist und mit aktuellen Daten eher eine Er-höhung als eine Absenkung des Niveaus des Existenzminimums begründet werden kann.
Sozialpolitische Auseinandersetzungen kursieren gegenwärtig verschärft um die Gestaltung der Sicherung des sozio-kulturellen Existenzminimums, um eine angebliche "Kostenexplosion" bei der Grundsicherung für Arbeitsuchende und um Vermutungen über verbreiteten Leistungsmissbrauch. Der Blick ist also stark auf die staatlicherseits auf Basis des Sozialgesetzbuches (SGB) über Transfers "zu bekämpfende" und "bekämpfte" Armut gerichtet. Vor diesem Hintergrund sollen die auf relative Grenzen – 50% des arithmetischen Mittels oder 60% des Medians der Nettoäquivalenzeinkommen – bezogenen Studien über Armut in Deutschland um eine Armutsanalyse ergänzt werden, die den Einkommensbereich unterhalb des gesetzlichen Existenzminimums in den Fokus nimmt. In der folgenden Untersuchung geht es nicht nur um die Größe der edürftigenBevölkerungsgruppe insgesamt, sondern darüber hinaus um die Bedeutung von Ursachen der Hilfebedürftigkeit – Arbeitslosigkeit, Teilzeiterwerbstätigkeit, niedriges Erwerbseinkommen, Alter –, um geschlechtsspezifische Unterschiede und um die Betroffenheit von Kindern. Hier fehlt es bisher an zeitnahen empirischen Informationen. Daten über die Zahl und Struktur der Empfänger von Grundsicherungsleistungen – also von Arbeitslosengeld II (Alg II) bzw. Sozialgeld, Grundsicherung im Alter und bei Erwerbsminderung oder Hilfe zum Lebensunterhalt (HLu) der Sozialhilfe – vermitteln nur die "halbe Wahrheit". ...
Einkommensverteilung in Deutschland : Strukturanalyse der Ungleichheit nach Einkommenskomponenten
(2000)
Ergebnisse von Verteilungsanalysen fallen je nach der Bezugseinheit - Haushalt oder Person - recht unterschiedlich aus. Dies gilt sowohl für das Niveau von Verteilungsindikatoren und deren Entwicklung im Zeitverlauf, als auch hinsichtlich der Beiträge einzelner Einkommens- und Abgabearten zu der gemessenen Ungleichheit. Auf der Basis der Einkommens- und Verbrauchsstichproben 1988 und 1993 und unter Verwendung der "älteren OECD-Skala" hat sich gezeigt, dass die Ungleichheit der personellen Verteilung der Nettoäquivalenzeinkommen im Beobachtungszeitraum in den alten Ländern zugenommen hat, aber nach wie vor wesentlich gleichmäßiger als die unveränderte Verteilung der Haushaltsnettoeinkommen auf Haushalte ist. In den neuen Ländern ist der Unterschied zwischen der haushaltsbezogenen und der personenbezogenen Einkommensverteilung noch deutlicher bei insgesamt geringerer Ungleichheit als in den alten Ländern. Auch die Zerlegung der aggregierten Ungleichheit nach Einkommenskomponenten führt zu teilweise abweichenden Ergebnissen in Abhängigkeit von der Bezugseinheit, da bei einzelnen Haushaltstypen im Durchschnitt jeweils unterschiedliche Einkommensarten dominieren. Entgegen gängigen Vorstellungen über Verteilungsstrukturen zeigt sich allerdings generell, dass die Verteilungsungleichheit zum größten Teil durch die Bruttoeinkommen aus unselbständiger Arbeit bestimmt wird. Zwar sind die Selbständigen- und Vermögenseinkommen erwartungsgemäß wesentlich ungleicher verteilt, durch ihren vergleichsweise geringen Anteil am Gesamteinkommen ist ihr Einfluss auf die Gesamtverteilung aber - insbesondere in Ostdeutschland, aber auch in Westdeutschland - begrenzt. Dies wird bei der Analyse der personellen Verteilung allerdings weniger deutlich als bei der Bezugnahme auf Haushalte. Wiederum im Gegensatz zu verbreiteten Annahmen wird die Ungleichheit der Verteilung der Haushaltseinkommen durch staatliche Transferzahlungen nicht oder nur unwesentlich gemildert. Dies ist aber nur auf den ersten Blick überraschend, da nur ein geringer Teil der Transfers vorrangig vertikalen, interpersonellen Umverteilungszielen dient. Die Leistungen der Sozialversicherung und vergleichbarer Systeme bezwecken hauptsächlich eine intertemporale Umverteilung und Lebensstandardsicherung bei Eintritt bestimmter Risikotatbestände (Alter, Tod des Ernährers, Unfall, Arbeitslosigkeit, Krankheit), so dass sie die Verteilung der Einkommen aus unselbständiger Arbeit abgeschwächt wiederspiegeln. Demzufolge geht auch von ihnen keine merkliche Verminderung der Ungleichheit der Nettoeinkommensverteilung auf der Haushaltsebene bzw. sogar eine leichte Erhöhung der Ungleichheit der personellen Verteilung der Nettoäquivalenzeinkommen in Westdeutschland aus. Aber selbst von den steuerfinanzierten Transfers geht unter Bezugnahme auf Haushalte insgesamt nur ein sehr geringer nivellierender Effekt aus. Hier wird die konzeptionelle Schwäche des analytischen Ansatzes am ungewichteten Haushaltseinkommen besonders deutlich. Denn mit dem Haushaltseinkommen wird ohne eine Berücksichtigung der Haushaltsgröße und -struktur die Bedarfssituation der Haushaltsmitglieder, die für viele steuerfinanzierte Transfers maßgeblich ist, nur unzureichend erfasst. Dementsprechend erweist sich der ausgleichende Effekt der Transfers der Gebietskörperschaften unter Bezugnahme auf Personen als recht deutlich, wenn auch in Westdeutschland im Vergleich zum Anteil am Einkommensaggregat als unterproportional. Bei einer weiteren Aufspaltung des heterogenen Komplexes der steuerfinanzierten Transfers in das einkommensunabhängige Kindergeld, Einkommensübertragungen mit Entschädigungscharakter und Transfers mit dem vorrangigen Ziel vertikaler Umverteilung zeigt sich aber auch für Westdeutschland eine weit überproportionale Reduzierung der Ungleichheit der Verteilung der Nettoäquivalenzeinkommen durch i. e. S. bedarfsabhängige Transfers. Absolut gesehen macht der ausgleichende Effekt zwar in den alten Ländern weniger als ein Zehntel, in den neuen Ländern ungefähr ein Fünftel der entsprechenden Effekte der persönlichen Steuern aus; unter Berücksichtigung des geringen Volumens der Transfers mit vorwiegend vertikaler Ausrichtung ergibt sich aber eine recht hohe Effizienz. Sie scheint in Westdeutschland zwischen 1988 und 1993 allerdings etwas zurückgegangen zu sein, ähnlich wie der ausgleichende Einfluss der persönlichen Steuern. Schließlich zeigt sich für das Kindergeld eine nur mäßige relative Reduzierung der Ungleichheit der personellen Einkommensverteilung, die 1993 in West- wie in Ostdeutschland nur ungefähr zwei Dritteln des Anteils am Einkommensaggregat entspricht. Dies ist angesichts der horizontalen Ausrichtung des Familienlastenausgleichs in Deutschland nicht verwunderlich, könnte aber für eine Zieldiskussion im Zusammenhang mit Reformüberlegungen Anlass geben.
Die vorliegende Untersuchung der effektiven Stundenlöhne in Deutschland erfolgte im Hin-blick auf die Frage nach der Ungleichheit ihrer Verteilung und der Einhaltung eines Kriteri-ums minimaler Leistungsgerechtigkeit. Ausgangspunkt ist die Annahme eines komplexen Gerechtigkeitsempfindens in der Gesellschaft, das neben dem Marktmechanismus als einem Motor für Leistung und leistungsabhängige Einkommen auch individuelle Anstrengungen sowie die Folgen faktischer Marktunvollkommenheiten bzw. faktischen Marktversagens berücksichtigt. Zur Approximation der ergänzenden Aspekte von Leistungsgerechtigkeit wird an relative Lohnpositionen angeknüpft: Lohneinkommen, die einen gesellschaftlichen Mittelwert sehr weit – bezogen auf den Durchschnitt um mehr als die Hälfte, und alternativ bezogen auf den Median um mehr als ein Drittel – unterschreiten, gelten als Indikator für Zielabweichungen. Implizit wird damit unterstellt, dass individuelle Leistungsunterschiede begrenzt, die aus dem Marktmechanismus folgende Differenzierungen aber grenzenlos sind. Die sich aus dem hier gewählten Kriterium ergebenden Niedriglohngrenzen entsprechen ungefähr alternativ abgeleiteten Grenzwerten, die aus der Norm folgen, dass eine Vollzeiterwerbstätigkeit mindestens das eigene sozio-kulturelle Existenzminimum zuzüglich einer Leistungskomponente sichern sollte. Neben dem Aspekt minimaler Leistungsgerechtigkeit für den unteren Rand der Verteilung werden keine weiteren konkreten Normen zur Beurteilung der Zielangemessenheit der beobachteten Verteilung der Lohnsätze gesetzt. Dies würde den Rahmen dieser Untersuchung sprengen. Die empirische Analyse auf Basis des Sozio-ökonomischen Panels (SOEP) und der Einkommens- und Verbrauchsstichprobe (EVS) konzentriert sich auf das Jahr 2003 und wird ergänzt um einige Auswertungen für 1998, die allerdings nur mit dem SOEP durchgeführt werden können. Obwohl aus dem SOEP generell eine größere Ungleichheit der Verteilung resultiert, halten sich die Unterschiede zwischen den Ergebnissen beider Datenquellen in Grenzen. ...
Die Analyse von Entwicklungstendenzen der personellen Einkommensverteilung in der Bundesrepublik Deutschland hat ein hohes Maß an Stabilität ergeben. Trotz vielfältiger gesamtwirtschaftlicher und sozialer Wandlungsprozesse während des einbezogenen Vierteljahrhunderts (1962/63 bis 1988) deuten aggregierte Verteilungsmaße auf der Basis von Mikrodaten der Einkommens- und Verbrauchsstichproben (EVS) sehr mäßige Veränderungen der Verteilung der Nettoäquivalenzeinkommen an. Der sich zunächst abzeichnende leichte Trend zu verminderter Ungleichverteilung kehrte sich im letzten Jahrzehnt des Beobachtungszeitraums wieder um, so daß die meisten Verteilungsindikatoren 1988 wieder nahe den Werten zu Beginn der siebziger Jahre lagen. Zwischen 1978 und 1983 scheint sich insbesondere die Situation der untersten Schichten verschlechtert zu haben, wie die Entwicklung des Atkinson-Index bei hoher Ungleichheitsaversion, des Theil-Index und der Armutsquote - bei einer relativen Armutsgrenze von 50% des durchschnittlichen Nettoäquivalenzeinkommens - belegen. Ein Vergleich der Verteilungsentwicklung auf verschiedenen Stufen des Verteilungsprozesses zeigt, daß sich die primäre und die sekundäre Verteilung tendenziell auseinanderentwickelt haben. Beispielsweise ist der Gini-Koeffizient der Faktoräquivalenzeinkommen im Untersuchungszeitraum um 7% gestiegen, der der Nettoäquivalenzeinkommen um 11% gesunken. Das soziale Sicherungssystem scheint sich im Untersuchungszeitraum also im großen und ganzen bewährt zu haben. Dennoch deuten sich neuerdings wieder zunehmende Verteilungsprobleme und sozialpolitische Problemfelder an. Abgesehen von dem allgemeinen Anstieg der Armutsquote in den achtziger Jahren und der nach wie vor ungünstigen Position der (vollständigen) Familien mit mehreren Kindern zeigt sich insbesondere bei den Alleinerziehenden eine alarmierende Entwicklung. Ihre durchschnittliche Wohlstandsposition erreichte 1988 nur noch ca. vier Fünftel (Alleinerziehende mit einem Kind) bzw. drei Fünftel (Alleinerziehende mit mehreren Kindern) des durchschnittlichen Nettoäquivalenzeinkommens insgesamt. Die relativen Positionen der anderen Haushalts- bzw. Familientypen haben sich im Zeitablauf tendenziell eher dem Gesamtdurchschnitt angenähert, so daß eine Dekomposition von Verteilungsindikatoren eine eindeutige und anhaltende Dominanz der Intra-Gruppen-Ungleichheit gegenüber der Ungleichverteilung zwischen den Haushaltstypen ergibt (ca. 90% der insgesamt gemessenen Ungleichheit). Auch in der Differenzierung nach der sozialen Stellung des Haushaltsvorstands überwiegt die Intra-Gruppen-Ungleichheit die Inter-Gruppen-Komponente der Einkommensungleichverteilung um ein Vielfaches, und zwar in deutlich zunehmendem Maß. Eine zielgerichtete Sozial- und Verteilungspolitik sollte also nicht an traditionellen Kategorien bzw. Schichtmerkmalen - z.B. Arbeiterschicht versus Unternehmerschicht - anknüpfen, sondern die komplexen Einflußfaktoren, die die materielle Situation von Haushalten determinieren, und damit die Heterogenität von eindimensional abgegrenzten Gruppen berücksichtigen. Darüber hinaus hat die Untersuchung auf der Basis der EVS-Datenbank gezeigt, daß sich hinter einer insgesamt recht stabilen Einkommensverteilung vielfältige, sich kompensierende Einzelentwicklungen verbergen, die in der Sozial- und Familienpolitik beachtet werden sollten.
Im folgenden Beitrag wird zunächst die Entwicklung der personellen Einkommensverteilung in Deutschland zwischen 1993 und 1998 auf der Basis der Einkommens- und Verbrauchsstichproben (EVS) dargestellt. Dabei werden - ähnlich wie in früheren Analysen auf Basis der EVS und des Sozio-ökonomischen Panels (SOEP) - hoch aggregierte Indikatoren berechnet, mit denen die Informationsfülle einer Mikrodatenquelle zu nur einer Zahl bzw. zu einer eindimensionalen relativen Häufigkeitsverteilung verdichtet wird. In einem zweiten Schritt und schwerpunktmäßig wird untersucht, welche Verteilungsstrukturen sich hinter diesen Darstellungen der Gesamtverteilung verbergen.
Wie können nun die vielfältigen Ergebnisse zur Einkommens- und Vermögensverteilung im Hinblick auf die Frage, ob es eine soziale Polarisierungstendenz gibt, zusammengefaßt werden? Angesichts des unklaren Begriffs der Polarisierung und der begrenzten Aussagekraft des Datenmaterials ist dies schwierig, zumal die empirische Analyse nicht nur Fragen beantwortet, sondern auch neue Fragen aufgeworfen hat und die vorliegenden Daten nicht sehr zeitnah sind. Trotz aller Einschränkungen lassen sich aber vielfältige Anzeichen einer Auseinanderentwicklung der Lebensverhältnisse einzelner Bevölkerungsgruppen feststellen. Diese äußern sich weniger in zusammenfassenden Verteilungsmaßen wie beispielsweise dem Gini-Koeffizienten als vielmehr in disaggregierten Betrachtungsweisen. So hat in Westdeutschland zwischen 1978 und 1993 sowohl der Bevölkerungsanteil, der in relativer Einkommensarmut lebt, als auch der Anteil der Reichen zugenommen. Dies könnte man als Polarisierungstendenz bezeichnen, wenn man Polarisierung allgemein als Prozeß der Herausbildung bzw. Vergrößerung von zwei weit auseinanderliegenden Einkommensgruppen versteht.32 Von der zunehmenden relativen Verarmung sind hauptsächlich Arbeitslosenhaushalte sowie Familien mit Kindern, insbesondere Alleinerziehende, betroffen, steigende gruppenspezifische Reichtumsquoten sind vorwiegend bei Selbständigen-, Angestellten- und Beamtenhaushalten sowie bei Paaren ohne Kinder zu beobachten. Die Gruppen der Alleinstehenden sind sehr heterogen, da sich hier sowohl überdurchschnittliche Armuts- als auch - mit Ausnahme der alleinstehenden älteren Frauen - überdurchschnittliche Reichtumsquoten zeigen; die Armutsquoten der jüngeren Alleinstehenden, insbesondere der Frauen, sind im Beobachtungszeitraum aber drastisch gestiegen, die Reichtumsquoten bei allen Alleinstehenden tendenziell gesunken. Neben diesen Tendenzen beinhaltet das nach wie vor starke West-Ost-Gefälle im Lebensstandard ein nicht zu unterschätzendes gesellschaftliches Spannungs- und Spaltungspotential. Die große Ungleichheit in der Einkommensverteilung wird von der Vermögensverteilung bei weitem übertroffen. Wenn man sich auf das Nettogrund- und Nettogeldvermögen (ausschließlich Zeitwerte der Kapitalversicherungsguthaben) beschränkt, verfügten 1988 die obersten 10% der Haushalte über fast die Hälfte des Gesamtvermögens, während die untere Hälfte der Haushalte weniger als 4% des Gesamtvermögens besaß. Diese krassen Gegensätze zeigen sich, obwohl die reichsten Haushalte in der Datenbasis nicht erfaßt sind. Für die Entwicklung der Konzentration der Vermögen zeigt sich im Zeitablauf keine eindeutige Tendenz. Die Ergebnisse für einzelne Jahre sind wegen unterschiedlicher Begriffsabgrenzungen nicht unmittelbar vergleichbar, die Erfassung des Vermögens ist generell unvollständig. In der Literatur wird eher von einer zunehmenden denn von einer abnehmenden Konzentration ausgegangen. Die bisher vorliegenden empirischen Verteilungsergebnisse decken allenfalls den Zeitraum bis 1993 ab. Seither hat sich die gesamtwirtschaftliche Situation aber deutlich verschlechtert. Die andauernden Arbeitsmarktprobleme und Kürzungen im Sozialleistungsbereich einerseits sowie "explodierende" Aktienkurse andererseits bergen zunehmende Gefahren einer nachhaltigen Spaltung der Gesellschaft. Es ist zu befürchten, daß unstetige Erwerbsverläufe mit der Folge unzureichender Sozialversicherungsansprüche künftig noch häufiger vorkommen werden und daß die Ungleichheit der Arbeitnehmereinkommen - auch durch die beobachtbare Zunahme untertariflicher Bezahlungen - steigen wird mit der Folge einer weiteren Verarmung insbesondere von Familien mit Kindern. Hinzu kommt, daß die von längerer Arbeitslosigkeit betroffenen Haushalte ihre Vermögensbestände aufzehren müssen oder sich gar verschulden, so daß ein Wiederaufstieg deutlich erschwert wird und auch die Vermögensverteilung noch ungleichmäßiger werden dürfte. Der Verteilungskonflikt wird sich darüber hinaus durch die in Gegenwart und Zukunft zu erwartenden Vererbungsvorgänge verschärfen. Hiervon profitieren nicht alle Haushalte gleichermaßen. Aufgrund sinkender Kinderzahlen ist mit einer Kumulierung von Vermögenswerten zu rechnen.33 Die in einigen politischen Kreisen befürwortete stärkere Einbeziehung der privaten Vermögensbestände zur Risikovorsorge, insbesondere für das Alter, ist angesichts der starken Vermögenskonzentration für den größten Teil der Bevölkerung wohl kaum eine realistische Alternative.
Die Verteilungssituation in Deutschland ist durch ein zunehmendes Maß an Ungleichheit gekennzeichnet. Das Wohlstandsgefälle zwischen West- und Ostdeutschland - 1993 lag das durchschnittliche Nettoäquivalenzeinkommen in den neuen Ländern nach Kaufkraftbereinigung um ca. ein Viertel unter dem Westniveau - birgt sozialen Sprengstoff. Hinzu kommt eine Verschärfung des Verteilungsproblems auch innerhalb der alten Bundesländer. So ist der Anteil der Personen (in Haushalten mit deutscher Bezugsperson) mit weniger als der Hälfte des im Westen erreichten durchschnittlichen Nettoäquivalenzeinkommens von 1988 bis 1993 um 1,7 Prozentpunkte auf 10,5% gestiegen. Die Dynamik in der Verteilungsentwicklung hat sich gegenüber dem vorangegangenen Fünfjahreszeitraum (1983 bis 1988) verstärkt. Angesichts einer weiter gestiegenen Arbeitslosigkeit, Einschränkungen bei den Lohnersatzleistungen und Arbeitsförderungsmaßnahmen sowie ausbleibender Anpassungen von Wohngeld und Sozialhilfe an die Preisentwicklung muß davon ausgegangen werden, daß sich die Verteilungssituation für einen weiten Bevölkerungskreis seit 1993 noch zugespitzt hat. Dies sollte bei allen Überlegungen zu steuer- und sozialpolitischen Reformen berücksichtigt werden.
Vom Kinderzuschlag zum Kindergeldzuschlag : ein Reformvorschlag zur Bekämpfung von Kinderarmut
(2007)
Ausgehend von einer kritischen Analyse des im Zuge der Hartz IV-Reform 2005 eingeführten Kinderzuschlags wird in der vorliegenden Studie ein Reformkonzept zur Bekämpfung von Kinderarmut entwickelt und eine quantitative Abschätzung der unmittelbaren Reformwirkungen vorgenommen. Bei der Gestaltung des Reformvorschlags wurde an Grundprinzipien des allgemeinen Familienleistungsausgleichs angeknüpft. Dieser sollte unabhängig von der jeweiligen Armutsursache das Existenzminimum des Kindes nicht nur von der Steuer freistellen, sondern im Bedarfsfall durch positive Transfers – mit einem Kindergeldzuschlag – gewährleisten. Dies erfordert a) die Aufstockung des Kindergeldes durch einen Zuschlag auf die Höhe des sächlichen Existenzminimums, also um maximal 150 Euro auf 304 Euro – bei Alleinerziehenden wegen besonderer Mehrbedarfe für das erste Kind um maximal 250 Euro auf 404 Euro; b) den Verzicht auf eine zeitliche Befristung des Kindergeldzuschlags; c) die Berücksichtigung des Familieneinkommen nach Abzug eines Freibetrages in Höhe des pauschalisierten Existenzminimums der Eltern bzw. des Elternteils (1.238 Euro bzw. 860 Euro); d) eine mäßige (mit Besteuerungsgrundsätzen vereinbare) Anrechnung des zu berücksichtigenden Einkommens – wir schlagen eine Transferentzugsrate von 50% vor; e) den Verzicht auf eine Berücksichtigung des Vermögens. Wesentliche Unterschiede des Reformkonzepts gegenüber dem derzeitigen Kinderzuschlag liegen in der Ersetzung der „spitzen“ Berechnung des elterlichen Existenzminimums durch eine Pauschale und in dem Verzicht zum Einen auf eine explizite Höchsteinkommensgrenze – aus der Transferentzugsrate ergibt sich freilich eine implizite Höchsteinkommensgrenze – und zum Anderen auf eine Mindesteinkommensgrenze. Es bleibt den Eltern also unbenommen, den Kindergeldzuschlag in Anspruch zu nehmen, selbst wenn ihre Einkommensverhältnisse und individuellen Wohnkosten auf einen höheren ALG II-Anspruch schließen lassen, den sie aber nicht wahrnehmen – sei es aus Stigmatisierungsangst, aus Unwissenheit, weil sie den Verweis auf kleine Ersparnisse befürchten oder sich von dem bürokratischen Aufwand abschrecken lassen. Aus vorliegenden Schätzungen geht hervor, dass aus den genannten Grün den das Ausmaß verdeckter Armut groß ist. Dem könnte durch einen vergleichsweise unbürokratischen Kindergeldzuschlag entgegengewirkt werden, insbesondere wenn der Leistungsträger, also die Familienkasse, verpflichtet wird, bei sehr geringem Einkommen des Antragstellers diesen auf möglicherweise bestehende höhere ALG II-Ansprüche hinzuweisen. Zur Abschätzung der unmittelbaren Reformwirkungen wurde ein Mikrosimulationsmodell entwickelt und mit den Daten des Sozio-ökonomischen Panels 2006 in mehreren Varianten gerechnet. Auf der Basis einer bereinigten Stichprobe ergeben sich – je nach Reformvariante – 3 Mio. bis 3,6 Mio. potenziell begünstigte Kinder, was etwa einem Sechstel bzw. einem Fünftel aller Kinder, für die Kindergeld bezogen wird, entspricht. Unter den Kindern von Alleinerziehenden würde die Empfängerquote mit gut einem Drittel weit überdurchschnittlich ausfallen. Die fiskalischen Bruttokosten des Reformmodells würden sich auf 3,7 Mrd. bzw. 4,5 Mrd. Euro jährlich (11% bzw. 13% der derzeitigen Kindergeldausgaben) belaufen; sie würden durch einige Einsparungen beim nachrangigen Wohngeld, bei ausbildungsbedingten Transfers sowie beim ALG II – sofern einige Anspruchsberechtigte den Bezug des Kindergeldzuschlags vorziehen – etwas vermindert werden. Der durchschnittliche Zahlbetrag pro Bedarfsgemeinschaft mit Anspruch auf Kindergeldzuschlag liegt bei 190 Euro p. M., der Median bei 150 Euro. Mit dem insgesamt begrenzten Mittelaufwand kann eine erhebliche Verminderung relativer Einkommensarmut von Familien erreicht werden. Die derzeit bei etwa 18% liegende Armutsquote von Kindern, für die Kindergeld bezogen wird, würde nach Einführung des Kindergeldzuschlags um etwa vier Prozentpunkte zurückgehen, die aller Mitglieder in den Familien von 16% um drei Prozentpunkte. Mit etwa zwei Dritteln lebt der größte Teil der potenziellen Anspruchsberechtigten in erwerbstätigen Familien, und die relative stärkste Verminderung der Armutsquote ergibt sich bei Familien mit Vollzeiterwerbstätigkeit. Die mit dem Kindergeldzuschlag zu bewirkende Verminderung von Kinderarmut würde wegen der hohen Erwerbsquote von Familien also mit einem Abbau von Armut trotz Arbeit einhergehen. Besonders große Reformwirkungen zeigen sich bei den Alleinerziehenden, für welche die Simulation eine Reduzierung der derzeit bei 40% liegenden Armutsquote um etwa acht Prozentpunkte ergibt. Dennoch verbliebe die Armutsquote auch nach Einführung des Kindergeldzuschlags auf einem bedrückend hohen Niveau. Dies ist ganz überwiegend auf die große Zahl der Alleinerziehenden mit Bezug von ALG II und Sozialgeld bzw. Sozialhilfe zurückzuführen, die annahmegemäß nach der Reform im Grundsicherungsbezug verbleiben, den vorrangigen Kindergeldzuschlag also nicht in Anspruch nehmen. Bei den Paarfamilien zeigt sich – relativ gesehen – ein ähnlicher Effekt des Kindergeldzuschlags wie bei den Alleinerziehenden; die Armutsquote von derzeit 12,5% würde um ein Fünftel auf 10% zurückgehen. Dabei fällt die Reformwirkung umso größer aus, je mehr Kinder in der Familie leben. Bei den trotz Einführung des Kindergeldzuschlags unter der relativen Armutsgrenze verbleibenden Paarfamilien handelt es sich zu einem geringeren Teil als bei den Alleinerziehenden um Empfänger von nachrangigen allgemeinen Grundsicherungsleistungen und zu einem größeren Teil um Fälle, bei denen auch das um den Kindergeldzuschlag erhöhte Einkommen die Armutsgrenze nicht erreicht. Ihre Situation würde sich dennoch durch die Reform erheblich verbessern, da die relative Armutslücke im Durchschnitt von 21% auf 14% zurückgehen würde; dies entspricht einer Einkommenserhöhung von durchschnittlich 267 Euro. Abschließend bleibt darauf hinzuweisen, dass der hier vorgestellte Reformvorschlag lediglich als erster Schritt zu einer allgemeinen Grundsicherung für Kinder zu verstehen ist. Er wurde unter dem Aspekt einer schnellen Umsetzbarkeit entwickelt, sollte aber weiter reichende Überlegungen nicht verdrängen. Diese haben nicht nur das sächliche Existenzminimum des Kindes, sondern darüber hinaus den verfassungsgerichtlich festgestellten Betreuungs- und Erziehungs- oder Ausbildungsbedarf (BEA) in den Blick zu nehmen. Er wird im Rahmen der Einkommensbesteuerung durch einen Freibetrag berücksichtigt (§ 32 Abs. 6 EStG), ist in die Bemessung des hier vorgestellten Kindergeldzuschlags aber nicht eingegangen. Eine systematische Weiterentwicklung des Familienleistungsausgleichs im Steuerrecht würde die Einführung eines einheitlichen (Brutto-) Kindergeldes zur Abdeckung von sächlichem Existenzminimum und BEA erfordern, das entsprechend der Leistungsfähigkeit der Eltern, also nach dem allgemeinen Einkommensteuertarif, zu versteuern wäre (Lenze 2007).
Im vorliegenden Papier werden drei Ansätze zur Reform des Familienleistungsausgleichs (FLA) mit jeweils zwei Varianten dargestellt und hinsichtlich ihrer fiskalischen Effekte und Wirkungen in verschiedenen Segmenten der Einkommensverteilung systematisch verglichen. – Mit dem weitestgehenden Konzept, der Kindergrundsicherung, wird ein Existenz sicherndes und zu versteuerndes Kindergeld in Höhe von monatlich 502 Euro bzw. 454 Euro pro Kind vorgeschlagen. Die bisherigen kindbedingten Freibeträge und mehrere Sozialleis-tungen könnten entfallen bzw. reduziert werden. – Daneben werden Kindergelderhöhungen auf einheitlich 238 Euro bzw. 328 Euro pro Kind und Monat, die allen Kindern – auch denen im SGB II-Leistungsbezug – zugute kommen sollen, untersucht. Das Kindergeld wäre wie bisher nicht zu versteuern, die bisherigen kindbedingten Freibeträge würden aber entfallen. – Schließlich wird der Vorschlag einer deutlichen Erhöhung des Kinderzuschlags bei reduzierter Mindesteinkommensgrenze und Wegfall der Höchsteinkommensgrenze erörtert. Zudem ist bei diesem Ansatz ein nochmals erhöhter Kinderzuschlag bei Alleinerziehenden – analog zum Mehrbedarfszuschlag nach dem SGFB II – (erste Variante) oder eine Herabsetzung der Transferentzugsrate auf Nichterwerbseinkommen von 100% auf 70% (zweite Variante) vorgesehen. Die zu erwartenden fiskalischen Belastungen der einfachen Kindergelderhöhung (ohne Be-steuerung) können ohne Weiteres hochgerechnet werden (16 bzw. 35 Mrd. Euro p. a.), die der anderen Reformmodelle sind aber ohne mikroanalytische Fundierung unter Berücksichtigung der Einkommensverteilung kaum abschätzbar. Zwar lassen sich auch die Bruttokosten der Kindergrundsicherung auf einfachem Wege ermitteln (Multiplikation der Kindergeld-Kinder mit der Betragshöhe), die Aggregate der davon abzusetzenden zahlreichen Einsparungen bei anderen Sozialleistungen und insbesondere der Steuermehreinnahmen sind allerdings nicht offensichtlich. Eine erste Überschlagsrechnung hat ergeben, dass die Nettokosten der ersten „großzügigen“ Variante der Kindergrundsicherung (502 Euro) denen der Kindergelderhöhung auf das sächliche Existenzminimum (322 Euro) ohne Besteuerung ungefähr gleich sind (in der Größenordnung von 35 Mrd. Euro). Eine genauere Quantifizierung kann aber nur auf der Ba-sis repräsentativer Mikrodaten und eines Simulationsmodells erfolgen, da insbesondere der Besteuerungseffekt der Kindergrundsicherung von der faktischen Einkommensverteilung abhängt. Auch eine Kostenschätzung für die Kinderzuschlagsreform bedarf mikroanalytischer Verfahren; ungeachtet dessen würde diese auf einen begrenzten Einkommensbereich gerichte-te Reform aber eindeutig die geringsten Kosten verursachen. Für einen systematischen Vergleich der Verteilungswirkungen der Reformvorschläge werden in der vorliegenden Arbeit Modellrechnungen für zwei ausgewählte Haushaltstypen präsen-tiert. Dabei wird deutlich, dass mit dem vergleichsweise begrenzten Konzept der Ausweitung des Kinderzuschlags die Situation von Familien in prekären Einkommensverhältnissen bis zu Familien der unteren Mittelschicht deutlich verbessert werden könnte. Inwieweit dieser Effekt eintreten würde, hängt allerdings auch vom Inanspruchnahmeverhalten ab; bisher ist die Nicht-Inanspruchnahme von Kinderzuschlag und Wohngeld weit verbreitet. Zudem würde sich die Situation der ärmsten Familien, die auf SGB II-Leistungen angewiesen sind, nicht verbessern, und am oberen Rand würden die Entlastungseffekte des FLA als Folge der kind-bedingten Freibeträge weiterhin mit dem elterlichen Einkommen zunehmen. Demgegenüber würden sich bei den Varianten der Kindergelderhöhung (ohne Besteuerung) die deutlichen Verbesserungen gegenüber dem Status quo gleichmäßig über das Einkommensspektrum vom Niedriglohnsegment – bei unverändert problematischen Effekten des Kinderzuschlags (Ein-kommensbruchstelle bei Höchsteinkommensgrenze) – bis in obere Schichten verteilen und erst am oberen Rand mit steigendem Einkommen sinken (infolge des Wegfalls der bisherigen kindbedingten Freibeträge). Die Förderungen durch die Kindergrundsicherung schließlich würden am stärksten im unteren und unteren Mittelbereich ausfallen und – im Gegensatz zu anderen Konzepten – insbesondere verdeckte Armut systembedingt, also quasi „automatisch“, weitgehend abbauen. Im oberen Mittelbereich und hauptsächlich in höheren Schichten würden die Transfers dagegen mit zunehmendem Einkommen kontinuierlich abnehmen. Insgesamt würde dies zu einem vergleichsweise stetig steigenden Verlauf des verfügbaren Familieneinkommens führen; die wegen der hohen Transferentzugsraten des Kinderzuschlags – gegebenenfalls in Kombination mit Wohngeld – häufigen Befürchtungen negativer Arbeitsanreize im unteren Einkommensbereich wären gegenstandslos. Inwieweit die hier diskutierten Reformkonzepte zu einem Abbau von Kinder- und Familien-armut und zu weniger Ungleichheit der personellen Einkommensverteilung führen können, lässt sich allein auf der Basis von Modellrechnungen allerdings nicht absehen. Dazu bedarf es detaillierter Analysen auf der Basis von repräsentativen Mikrodaten, die die faktische Ein-kommensverteilung abbilden und Simulationsrechnungen zur Quantifizierung der Effekte der Reformvarianten – unter Einbeziehung der Finanzierung der jeweiligen Nettokosten – ermöglichen. Daran wird im Projekt „Vom Kindergeld zu einer Grundsicherung für Kinder“ auf Basis der Daten des Sozio-ökonomischen Panels (SOEP) 2007 gearbeitet; die Repräsentativität des Datensatzes hinsichtlich des Nachweises von Einkommens-, insbesondere Transferar-ten wurde bereits geprüft – mit gutem Ergebnis.
In diesem Arbeitspapier werden Veränderungen der Wohlstandsverteilung während der Periode 1972 bis 1991 vor dem Hintergrund der ökonomischen und demographischen Entwicklung in Westdeutschland skizziert und die Wohlstandsverteilungen in Ostdeutschland vor und nach der Wiedervereinigung verglichen. Dabei beziehen wir uns auf das Äquivalenzeinkommen von Personen zur Erfassung individuellen Wohlstands. Die Analyse bezieht sich zum einen auf Ergebnisse des Statistischen Bundesamtes, die auf einem mittleren Aggregationsniveau durchschnittliche Äquivalenzeinkommen nach sozio-ökonomischen Gruppen ausweisen. Zum anderen werden verschiedene Verteilungsmaße auf der Basis von Mikrodaten berechnet, wobei uns zwei Datenquellen zur Verfügung standen: die offiziellen Einkommens- und Verbrauchsstichproben (1973, 1978 und 1983) und das Sozio-ökonomische Panel (1983 bis 1990 für Westdeutschland, 1990, 1991 für Ostdeutschland). Auf mittlerem Aggregationsniveau zeigen sich wesentliche Änderungen in den relativen Wohlstandspositionen der zehn unterschiedenen sozio-ökonomischen Gruppen, aber eine nahezu unveränderte Rangfolge der Gruppen während des gesamten Beobachtungszeitraums. Auf der Mikroebene zeigt sich eine leichte Zunahme der Ungleichheit der Wohlstandsverteilung, die am Äquivalenzeinkommen der Personen gemessen wurde. Die Veränderungen sind allerdings sehr gering und weisen teilweise in den beiden Dekaden entgegengesetzte Richtungen auf. Aus der Dekomposition der mit dem Theil-Maß ermittelten Verteilungsungleichheit nach der sozialen Stellung des Haushaltsvorstands ergibt sich, daß mehr als 80% der Ungleichheit insgesamt auf Intra-Gruppen-Ungleichverteilungen zurückzuführen ist, und zwar mit steigender Tendenz. Dieses Ergebnis wird etwas gemildert, wenn man die sehr heterogene Gruppe der Nichterwerbstätigenhaushalte nach der überwiegenden Einkommensart des Haushalts disaggregiert.
Enthält die 2 Vorträge: Die Entwicklung der Einkommensverteilung und der Einkommensarmut in den alten Bundesländern von 1962 bis 1988 / Irene Becker, Universität Frankfurt/Main Vergleichende Analyse der Einkommensverteilung und der Einkommensarmut in den alten und neuen Bundesländern von 1990 bis 1995 / Richard Hauser, Universität Frankfurt a.M.
Die Untersuchungen auf der Basis der Einkommens- und Verbrauchs stichproben haben ergeben, daß sich hinter der für die "alte" Bundesrepublik festgestellten weitgehenden Stabilität der Verteilung der Nettoäquivalenzeinkommen deutliche Veränderungen auf den vorgelagerten Stufen des Verteilungsprozesses verbergen. Bei den individuellen Erwerbseinkommen sowie bei den individuellen Faktoreinkommen (nur Bezieher) sind zwischen 1973 und 1988 die hier einbezogenen aggregierten Ungleichheitsmaße zwar kaum gestiegen; Kernel Density-Schätzungen zeigen aber einen leichten Polarisierungstrend der bimodalen Verteilung, da die Dichte in den Randbereichen der Verteilung zugenommen hat und das Dichtetal zwischen den beiden Gipfeln sich gesenkt hat. Unter Berücksichtigung des Haushaltszusammenhangs - durch Zusammenfassung individueller Faktoreinkommen auf Haushaltsebene und Gewichtung mit einer Äquivalenzskala - erweisen sich die Verteilungsänderungen als noch gravierender. Die aggregierten Ungleichheitsmaße sind stark gestiegen, und das Verhältnis der beiden Modi der zweigipfligen Verteilung hat sich umgekehrt: lag 1973 der erste Gipfel im Bereich der geringfügigen Faktoräquivalenzeinkommen noch deutlich unter dem zweiten, knapp unterhalb des Durchschnitts gelegenen Gipfel, so war 1988 der erste Gipfel deutlich höher als der zweite. Die relative Häufigkeit marginaler Faktoräquivalenzeinkommen hat im Zeitablauf also eindeutig zugenommen, ebenso wie die im oberen Einkommensbereich. Dennoch kann man von Polarisierung nur in einem weiteren Sinn sprechen, da das Dichtetal zwischen den Modi 1988 höher als 1973 liegt. Es mag beruhigend wirken, daß - zumindest in der Zeit vor der Wiedervereinigung - das Abgaben- und Transfersystem die zunehmende Disparität der Faktoreinkommensverteilung insoweit kompensieren konnte, als die relative Häufigkeit des Niedrigeinkommensbereichs - hier abgegrenzt mit 50% des durchschnittlichen Nettoäquivalenzeinkommens - vergleichsweise mäßig zugenommen hat. Dieser Eindruck ist allerdings im Hinblick auf die eingangs erwähnten Einschränkungen der Datenbasis zu relativieren. Die unzureichende Erfassung des oberen und des unteren Randbereichs der Einkommensverteilung läßt vermuten, daß der tatsächliche Trend zunehmender Ungleichheit und Polarisierung durch unsere Analysen unterschätzt wird.
Vorwort : Hansjakob Seiler
Deskriptive und metaphorische Benennung im Bereich der deutschen Nominalformen : Rita Becker
Die Anwendung des Prinzips der deskriptiven und etikettierenden Benennung auf Instrumentausdrücke im Deutschen und Ungarischen : Elisabeth Katz
Etikettierende und deskriptive Benennung in Prä- und Postpositionalsystemen : Heribert Walter
Das deskriptive Prinzip im Hebräischen : Edna Habel
Anwendung der Prinzipien der deskriptiven und der etikettierenden Benennung auf Farbbezeichnungen im Deutschen : Charlotte Schwendy
Deskriptiv vs. Etikettierend in der Fachsprache der EDV : Wolfgang Kirsch
Relativkonstruktionen : Bernhard Clasen und Claudia Seip
Die […] Arbeiten entstanden im Rahmen eines vom Unterzeichneten geleiteten Forschungsseminars über sprachliche Universalien im Wintersemester 1974/75. Das Interesse konzentrierte sich auf den als "deskriptive und etikettierende Benennung" bezeichneten Problembereich; die Relativkonstruktionen, hier durch eine Arbeit vertreten, hängen letztlich mit dem genannten Problembereich zusammen. Eine weitere Studie über Relativkonstruktionen sowie sonstige zur Zeit noch in Arbeit befindliche Aufsätze dieses Seminars werden vielleicht, in einem späteren Arbeitspapier Aufnahme finden.
Ein Value-at-Risk-Limit wird als DM-Betrag gekennzeichnet, der von den tatsächlichen Handelsverlusten innerhalb einer bestimmten Zeitdauer nur mit geringer Wahrscheinlichkeit überschritten werden darf. Da der Bankvorstand i.d.R. Jahres-Value-at-Risk-Limite beschließt, im Handelsbereich die Geschäfte aber für einen kurzfristigen - unterstellt wird ein eintägiger - Planungshorizont abgeschlossen werden, ist zu klären, wie Jahres-Limite in Tages-Limite umgerechnet und während des Jahres realisierte Gewinne und Verluste auf die Limite angerechnet werden können. Auf der Grundlage des Umrechnungsverfahrens nach der Quadratwurzel-T-Formel lassen sich drei Verfahren für die Ermittlung des Tages-Limits unterscheiden: 1. Realisierte Gewinne und Verluste werden nicht angerechnet (starres Limit). 2. Bei Verlusteintritt vermindert sich das Tages-Limit für die Restperiode, realisierte Gewinne machen Kürzungen rückgängig (Verlustbegrenzungslimit). 3. Tages-Limite werden um Gewinne und Verluste angepaßt, wodurch eine Erweiterung des Handlungsspielraumes möglich ist (dynamisches Limit). Die drei Limite werden in einem Simulationsmodell gegeneinander abgewogen, wobei unterstellt wird, ein Händler handle nur eine einzige Aktie und antizipiere in 55% der Fälle die Kursrichtung. Die Simulationsergebnisse sind bei den unterstellten Renditeprozessen (geometrische Brownsche Bewegung und reale Renditen von 77 deutschen Aktien für die Zeit vom 01.01.1974 bis 31.12.1995) weitgehend identisch. Das dynamische Limit produziert deutlich höhere durchschnittliche Ergebnisse als das starre Limit und das Verlustbegrenzungslimit. Überschreitungen des Jahres-Limits treten nur beim starren Verfahren auf, die Häufigkeit ist allerdings wesentlich geringer als die zulässige Wahrscheinlichkeit von 1 %.
Das Firmenkundensegment und die Präsenz auf den internationalen Märkten für gewerblichen Hypothekarkredit und der Finanzierung öffentlicher Haushalte gewinnen für die deutschen Hypothekenbanken bis zum Jahr 2007 erheblich an Bedeutung, so das Ergebnis eines Forschungsprojekts der Goethe-Universität Frankfurt. Die Immobilienfinanziers werden ihre Geschäftsbeziehungen zu Unternehmen in den nächsten fünf Jahren sowohl qualitativ als auch räumlich ausbauen. Real Estate Investment Banking und Expansion ins Ausland stehen auf der strategischen Agenda der Hypothekenbanken ganz oben.
Die vorliegende Arbeit ist eine kritische Auseinandersetzung mit dem Hofstedeschen Ansatz. Dabei soll in erster Linie das Werk von Hofstede selbst einer wissenschaftstheoretisch-methodologischen Prüfung unterzogen werden. Bei sehr populären Standardansätzen, die sowohl in der Praxis einen großen Anklang finden als auch in der wissenschaftlichen Gemeinschaft ständig rezipiert und weiterentwickelt werden, bleibt es natürlich nicht aus, dass durch Vereinfachungen oder Uminterpretationen in der Literatur Inkonsistenzen entstehen, die so im Originalwerk nicht enthalten sind. In dieser Arbeit soll es im Wesentlichen nicht um solche Probleme der Hofstedeschen Rezeption gehen. Vielmehr werde ich die Argumentation von Hofstede selbst in seinen eigenen Schriften […] einer detaillierten kritischen Analyse zu unterziehen, um auf diese Weise zu prüfen, ob bestimmte gravierende Probleme schon im Originalwerk angelegt sind.
Dieses Arbeitspapier geht aus einem Hauptseminar zur Argumentationstheorie hervor, das [von Leila Behrens] im Wintersemester 2008/09 am Institut für Linguistik der Universität zu Köln gehalten [wurde]. In den beiden Arbeiten in diesem Band (Badtke et al. und Benning et al.) stellen die Studierenden dieses Hauptseminars die Ergebnisse vor, die sie (in zwei parallelen Projektgruppen mit unterschiedlichen Diskussionsgegenständen) bei der empirischen Analyse von Argumentationen in einem Internet-Forum gewonnen haben. Der Gegenstand der Diskussion betraf bei der einen Gruppe (Badtke et al.) die Unabhängigkeit des Kosovo, bei der anderen Gruppe (Benning et al.) die Einführung eines generellen Rauchverbots in europäischen Hauptstädten.
In Südtirol wurde 2014 erstmals ein landesweiter Fahrradwettbewerb organisiert, der die Südtiroler Bevölkerung auf spielerische Weise davon überzeugen sollte, für Alltagswege auf das Fahrrad umzusteigen. Die 1.219 Teilnehmenden am Wettbewerb sind insgesamt mehr als 850.000 Kilometer geradelt. Diese Evaluation soll zeigen, ob der Fahrradwettbewerb eine erfolgreiche Maßnahme war, um den Radverkehr in Südtirol zu fördern, also ob tatsächlich eine Verlagerung vom motorisierten Individualverkehr auf den Radverkehr erreicht wurde. Der Erfolg ähnlicher Wettbewerbe wurde bislang vor allem in den Teilnehmer- und Kilometerzahlen gemessen, eine wissenschaftliche Evaluation der durch die Kampagnen erreichten (Verlagerungs-)Effekte fand bislang kaum statt. Die Evaluation des Südtiroler Fahrradwettbewerbs orientiert sich am MaxSumo-Leitfaden zur Evaluation von Mobilitätsmanagementmaßnahmen. Zusätzlich wurden die Motive und Wünsche der Teilnehmenden und Veranstalter herausgearbeitet und der Südtiroler Fahrradwettbewerb mit anderen Fahrradwettbewerben verglichen.
Die Goethe-Universität ist einer der größten Verkehrserzeuger der Stadt Frankfurt. Der Bericht zum Mobilitätsmanagement stellt zunächst die drängendsten Herausforderungen an der Goethe-Universität exemplarisch für den größten Campus, den Campus Westend, dar. Anschließend werden Maßnahmen zur Verbesserung der Situation abgeleitet und hinsichtlich ihrer Wirkung, ihrer zeitlichen Realisierung und der notwendigen Kosten abgeschätzt. Übergreifend wird die Einführung eines institutionalisierten Mobilitätsmanagements für die Goethe-Universität vorgeschlagen. Damit können – in enger Abstimmung mit weiteren städtischen Akteuren – Maßnahmen zu einer sowohl effizienteren als auch umweltfreundlicheren und sicheren Gestaltung des Verkehrs von Studierenden und Beschäftigten umgesetzt werden.
Im Rahmen einer Projektarbeit zum Thema Argumentationstheorie im WS 2008/09 haben sich die teilnehmenden Studentinnen und Studenten der Universität zu Köln das Ziel gesetzt, ca. 600 Kommentare zur Frage „Do smoking bans mean a cultural shift for Paris and Berlin?“ des „Have your say“-Forums der BBC auf ihre Argumentationsmuster hin zu analysieren. Die Ausgangsfrage im BBC-Forum richtete sich also nach dem „cultural shift“, also der kulturellen Veränderung, die das Rauchverbot in Kneipen und Cafés für die beiden Metropolen bedeuten könnte. Sehr bald ergab unsere Analyse jedoch, dass dies nicht die Frage war, die innerhalb der Kommentare im Zentrum der Aufmerksamkeit stand: Stattdessen wurde in erster Linie darüber diskutiert, wie das Rauchverbot generell – und zwar nicht nur in den beiden genannten Städten – bewertet werden sollte. Gut zwei Drittel der Beiträge bezogen klar Stellung für oder gegen ein Rauchverbot in der Gastronomie. Für unsere Analyse der Argumentationsmuster haben wir zum einen die klassischen argumentationstheoretisch relevanten Faktoren berücksichtigt wie Fallacies und verdeckte Prämissen. Hinzu kamen dann zwei weitere Arten von Parametern: erstens Faktoren, die in argumentationstheoretischen Abhandlungen eher nur am Rande berücksichtigt werden wie z.B. Evidenztyp und Überzeugungskraft, und zweitens Informationen, die speziell mit der Art des Diskussionsforums bzw. dem Inhalt der Diskussion zu tun haben, wie etwa Selbstauskünfte über das eigene Raucherverhalten.
Der Band untersucht die Ursachen, Ausprägungen und Reaktionen auf die Entstehung bzw. Erstarkung populistischer Parteien und Bewegungen in Deutschland und Ostmitteleuropa.
Inhaltsverzeichnis:
Arthur Benz: Populismus als Herausforderung für Wissenschaft und Praxis - Einleitung
Dirk Jörke: Populismus – Ursachen und falsche Antworten
Michael Edinger: Mobilisierung gegen das Establishment. Zu einem Wesensmerkmal populistischer Strömungen
Claudia Landwehr und Nils D. Steiner: Populismus – eine Nachfrageperspektive
Joachim Klose: Ein Land, zwei Perspektiven? Zum Populismusin Ost- und Westdeutschland
Petra Guasti und Lenka Buštíková: Populismus in Ostmitteleuropa und der Verzicht auf Politik
Am 26.02.2002 hat die von der Bundesministerin der Justiz auf Empfehlung der Regierungskommission Corporate Governance eingesetzte Kodex-Kommission den Deutschen Corporate Governance Kodex (im folgenden: DCG-Kodex/Kodex) vorgelegt. Mit Inkrafttreten des Transparenz- und Publizitätsgesetzes4, voraussichtlich im August 2002, werden Vorstand und Aufsichtsrat börsennotierter Aktiengesellschaften künftig jährlich zu erklären haben, ob sie den Empfehlungen des Kodex folgen, und, soweit dies nicht der Fall ist, Abweichungen offen zu legen haben. Im folgenden ist zunächst das Kodex-Konzept, das dem angelsächsischen Rechtskreis entstammt, zu erläutern und die mit dem DCG-Kodex verfolgte Zielsetzung vorzustellen (dazu B.). Dem schließt sich ein Überblick über Regelungstechnik und Inhalt des DCG-Kodex sowie dessen gesetzliche „Flankierung“ durch das TransPuG an (dazu C.). Sodann werden die Entsprechens-Erklärung (dazu D.) sowie Haftungsfragen im Zusammenhang mit dem DCG-Kodex (dazu E.) behandelt.
Regulierung von Hedge Fonds in Deutschland : Bestandsaufnahme, praktische Erkenntnisse und Ausblick
(2003)
Die alternative Kapitalanlage über Hedge Fonds gewinnt in Deutschland zunehmend an Bedeutung. In der jüngsten Vergangenheit wurde dieses Thema daher auch in der rechtswissenschaftlichen Literatur aufgegriffen, was zu mehr Transparenz geführt hat. Allerdings ist das deutsche Investmentrecht und insbesondere der Spezialbereich "Hedge Fonds" nach wie vor eine Praktikerdomäne. Deshalb soll im Folgenden zunächst eine Bestandaufnahme erfolgen. Darüber hinaus werden aktuelle Entwicklungen beschrieben. Dabei lassen die Verfasser ihre praktischen Erkenntnisse einfließen. Vor diesem Hintergrund wird anschließend die vom Gesetzgeber für Anfang 2004 geplante Hedge Fonds-Regulierung gewürdigt.
Klimaschutz- und Anpassungsmaßnahmen : Zielkonflikte und Synergien mit dem Biodiversitätsschutz
(2015)
Der Klimawandel ist eine der größten Herausforderungen der Gegenwart und seine Auswirkungen auf Natur, Gesellschaft und Wirtschaft werden vielfach untersucht. Minderungs- wie auch Anpassungsmaßnahmen sind somit ein wichtiges Handlungsfeld geworden. Während der Einfluss des Klimawandels auf die Biodiversität bereits seit Längerem Gegenstand wissenschaftlicher Untersuchungen ist, rücken nun auch mögliche Folgen von Klimaschutz- und Anpassungsmaßnahmen auf die biologische Vielfalt in den Fokus der Forschung: So ist eine generelle Treibhausgasreduktion zwar prinzipiell förderlich, jedoch kann die Umsetzung der hierfür notwendigen Maßnahmen zu Zielkonflikten mit dem Biodiversitätsschutz führen. Gleichwohl gibt es Herangehensweisen, die Synergien beider Bereiche erkennen lassen.
Das Papier bietet einen Überblick über Maßnahmen des Klimaschutzes und der Klimawandelanpassung in den Bereichen Wald- und Forstwirtschaft, Moore, Landwirtschaft, nachwachsende Rohstoffe, Fließgewässer, Küsten und Meere. Diese werden mit Blick auf ihre möglichen (sowohl förderlichen als auch abträglichen) Auswirkungen auf die Biodiversität vorgestellt. Mit dieser problemorientierten Diskursfeldanalyse soll ein Beitrag geleistet werden, potentielle Zielkonflikte von Klima- und Biodiversitätsschutz zu erkennen und Synergien zu fördern.
Schätzwerte mittelfristiger Gleichgewichtszinsen mit der Methode nach Laubach und Williams (2003) werden inzwischen vielfach in der Diskussion um die Geld- und Fiskalpolitik zitiert. Unter anderem wurden sie von Summers (2014a) als Evidenz für eine säkulare Stagnation angeführt und von Yellen (2015) zur Rechtfertigung der Nullzinspolitik verwendet. In diesem Papier nehmen wir eine umfangreiche Untersuchung und Sensitivitätsanalyse dieser Schätzwerte für die Vereinigten Staaten, Deutschland und den Euro-Raum vor. Aufgrund der hohen Unsicherheit und Sensitivität, die mit den Schätzwerten mittelfristiger Gleichgewichtszinsen mit der Laubach-Williams-Methode und ähnlichen Ansätzen verbunden ist, sollten diese Schätzungen nicht den Ausschlag für entscheidende Weichenstellungen in der Geld- und Fiskalpolitik geben.
In den Jahren 2006-2007 wurde die epiphytische Flechtenflora im Nordbezirk Moskaus erneut untersucht, um sie mit den Ergebnissen aus den Untersuchungen der Jahre 1988-1991 zu vergleichen. Statt 18 konnten nun 55 Flechtenarten nachgewiesen werden. Als Hauptursache für diese Zunahme wird die erhöhte Eutrophierung der Standorte angenommen.
Was ist »Neoliberalismus« und wie ist es um ihn bestellt? Welche Rolle spielt der Begriff nach all den Abgesängen und Wiederbelebungen heute in Politik und den Sozialwissenschaften? Ziel des vorliegenden Beitrags ist es, das unübersichtliche Feld der Forschungsrichtungen, die sich mit dem Neoliberalismus befassen, in Augenschein zu nehmen und die wichtigsten Debatten sowie ihre Fortentwicklungen vorzustellen, um die Orientierung zu erleichtern. Ausgehend von einem kurzen Überblick über aktuelle Stellungnahmen zum Neoliberalismus im politischen Diskurs werden die beiden wichtigsten theoretischen Perspektiven wird – Hegemonietheorie und Governmentality Studies –vorgestellt, aus denen der Neoliberalismus untersucht wird, um dann verschiedene der wichtigsten Schauplätze des Neoliberalismus abzuschreiten. Das kritische Interesse der größtenteils aus einer der beiden Perspektiven heraus arbeitenden Forscher richtet sich unter anderem auf die Rolle des Nationalstaats, den Umbau urbaner Räume, seine Auswirkungen auf die Geschlechterverhältnisse oder die Art und Weise, wie das Leben im Neoliberalismus die Selbstverhältnisse der Subjekte transformiert. Der Artikel schließt mit Überlegungen zum theoretischen Preis, der für den ungeheuer weit gefasste Neoliberalismusbegriff zu zahlen ist und der nicht zuletzt in einer vermeintlichen Alternativlosigkeit besteht, die ironischerweise aus den zahllosen kritisch intendierten Beschwörungen des Neoliberalismus hervorgeht.
Obgleich Staaten im Kontext asymmetrischer Konflikte prinzipiell danach streben, nicht-staatlichen Gewaltakteuren Anerkennung und Legitimität vorzuenthalten, wird dieser Doktrin des Nicht-Dialogs weltweit zunehmend zuwider gehandelt. Der Doktrin der Nicht-Anerkennung steht eine Praxis der internationalen, politischen Anerkennung solcher Gruppen entgegen. Doch welchen Einfluss haben die Nicht-Anerkennung und die von internationalen Drittparteien gewährte Anerkennung auf die Gewaltanwendung nicht-staatlicher Gewaltakteure? Die Geschichte der palästinensischen Widerstandsgruppen Fatah (1962 bis 1993) und Hamas (1987 bis 2008) eignet sich, diesen Fragen auf den Grund zu gehen, da sie durch Akte der Anerkennung und Nicht-Anerkennung einerseits und Prozesse der Eskalation und De-Eskalation andererseits geprägt ist. Es zeigt sich, dass eine Strategie der graduellen Anerkennung unter bestimmten Bedingungen zur De-Eskalation nicht-staatlicher Gewalt beitragen kann.
Governance und Vertragsstrukturen in der deutschen VC Industrie: eine empirische Einschätzung
(2009)
Diese Arbeit analysiert die wesentlichen Elemente der Vertragsstrukturen in der Venture Capital-Industrie. Aufbauend auf einem sehr umfangreichen und detaillierten Datensatz, der die Verträge zwischen Venture Capital-Investoren und deren Portfoliounternehmen abbildet, werden die Kontroll-, Entscheidungs- und Vetorechte einer detaillierten Analyse unterzogen. Dabei zeigt sich eine klare Tendenz in der Entwicklung der Vertragsstrukturen in Deutschland hin zu angelsächsisch strukturierten Verträgen. Dies beinhaltet unter anderem eine verstärkte Verwendung von Kontroll- und Entscheidungsrechten aber auch ein breiteres Spektrum dieser Rechte. Außerdem finden wir eine klare Interaktionen zwischen Kontrollrechten, Cash-Flow Rechten und Liquidationsrechten. Insbesondere ist zu betonen, dass Cash-Flow und Kontrollrechte einerseits und Stimmrechte und Aufsichtsratsanteile andererseits separat alloziiert werden und viele Kontrollrechte als Komplemente und nicht als Substitute zueinander aufgefasst werden müssen. JEL Classification: G24, G32, D86, D80, G34
Nominalinkorporation
(1980)
Inkorporation ist [...] eine Technik, die zur Wortkomplexität beiträgt. Es handelt sich dabei um eine besondere Art von Wortbildung: eine (evtl. mehrere) Prädikatsbestimmung (Subjekt, direktes Objekt, adverbiale Bestimmungen) wird ins Prädikat einverleibt. Das besondere an dieser Wortbildungstechnik ist – A. ihre syntaktische Relevanz: es werden zwei syntaktische Elemente zu einem Wort komponiert; gleichzeitig muss aber betont werden, dass die ursprüngliche syntaktische Relation der Mitglieder in dem Kompositum nicht unverändert bestehen bleibt; – B. die Offenheit des Prozesses, die erlaubt, Inkorporation sowohl gegenüber Derivationsprozessen als auch gegenüber anderen Arten von Komposition abzugrenzen. [...] Die hier relevanten Prädikatsbestimmungen (diejenigen also, die inkorporiert werden können) sind zwar nicht immer, aber vorwiegend durch Nomina realisiert. In dieser Arbeit wird nur die Inkorporation von Nomina berücksichtigt.
In diesem Beitrag werden die Angaben aus der Beschäftigtenbefragung der GDA-Dachevaluation zum Thema Belastungen am Arbeitsplatz unter verschiedenen Aspekten ausgewertet. Insbesondere erfolgt eine Betrachtung der hessischen Daten, die den Ergebnissen der Gesamtstichprobe gegenübergestellt werden; weiterhin wird eine nach Branchen und Betriebsgrößen differenzierte Betrachtung dargestellt. Außerdem wird in bi- und multivariaten Modellen untersucht, welche Faktoren einen Einfluss auf die Belastungswahrnehmung haben.
In einem weiteren Schritt werden die Einschätzungen der Beschäftigten den Ergebnissen der Betriebsbefragung gegenübergestellt, um Unterschiede bzw. Ähnlichkeiten dieser beiden Gruppen hinsichtlich der Wahrnehmung der betrieblichen Situation zu betrachten.
Als wichtiges Ergebnis hat sich gezeigt, dass für die Beschäftigten die „Arbeit unter Zeitdruck“ den wesentlichen Belastungsfaktor darstellt. Neben diesem psychischen Belastungsfaktor spielen aber auch physisch-technische Belastungsfaktoren, d.h. schwere körperliche Arbeit und Umgebungsfaktoren, nach wie vor eine große Rolle. Erwartungsgemäß gibt es große Unterschiede hinsichtlich der wahrgenommenen Belastungen zwischen den Wirtschaftssektoren. In Hessen spielen Belastungen durch bewegungsarme Tätigkeiten eine deutlich größere Rolle als im Schnitt aller Länder.
Die Ergebnisse aus einer bi- beziehungsweise multivariaten Auswertung der Daten zeigen, dass neben der Branche auch die betrieblichen Arbeitsschutzaktivitäten einen nachweisbaren Einfluss auf die Belastungswahrnehmung der Beschäftigten haben. Weiterhin wird deutlich, dass die Beschäftigten in der Wahrnehmung der Belastung eine klare Unterscheidung zwischen physisch-technischen Belastungen und psychischen Faktoren treffen. Belastungen aus bewegungsarmen Tätigkeiten spielen insgesamt eine große Rolle, lassen sich aber eindeutig keinem dieser Belastungskomplexe zuordnen.
Aus der Gegenüberstellung der Befunde der Beschäftigtenbefragung mit den Ergebnissen der Befragung der Betriebe ergibt sich, dass Führungskräfte bzw. Expert/innen die betrieblichen Belastungskonstellationen anders wahrnehmen als die Beschäftigten: die Beschäftigten nehmen psychische Belastungen an einem deutlich höheren Anteil der Arbeitsplätze wahr, wohingegen die betrieblichen Vertreter/innen Belastungen nach wie vor eher im technischen Bereich sehen.
Der vorliegende Text ist ein Bericht über die Ergebnisse einer qualitativen empirischen Befragung, die im Herbst 2015 in Haushalten eines Quartiers der Stadt Qingdao in China im Rahmen des BMBF-Projekts SEMIZENTRAL durchgeführt wurde. Das Gesamtprojekt umfasst die erstmalige Realisierung eines Resource Recovery Centers (RRC) als flexibles System mit Wasserrückgewinnung und Wiederverwertung in einer schnell wachsenden Stadt. Das Fachgebiet Abwassertechnik am Institut IWAR der Technischen Universität Darmstadt leitet das Projekt. Das ISOE ist Partner im Forschungsverbund und führt eine Stoffstrom- und eine damit verbundene Vulnerabilitätsanalyse für das Gebiet der Implementierung durch. In diesem Zusammenhang ist es wichtig, Einflussfaktoren des Umgangs mit Wasser und Abwasser durch die Bewohner und Bewohnerinnen zu erfassen. Thematischer Schwerpunkt der Befragung war, welche Alltagspraxis in Bezug auf Wasser und Abwasser die Bewohnerinnen und Bewohner haben und wie sich diese durch den Umzug aus einer traditionellen Dorfstruktur in ein modernes Wohnquartier verändert hat. Gleichzeitig sollte die Bekanntheit und Akzeptanz des Konzepts des RRC empirisch untersucht werden.
Die "Digitalisierung" ist ein gesamtgesellschaftlicher und globaler Trend, der nahezu alle Bereiche der Lebens- und Arbeitswelt durchzieht und insofern auch das Studieren an (allen) Hochschulen betrifft. Das Schlagwort "Digitalisierung" verweist auch auf alle Varianten der Nutzung von digitalen Technologien im Bereich Studium und Lehre. Lange Zeit stand vor allem das E-Learning im Vordergrund der Diskussion und damit die Nutzung von digitalen Technologien im engeren Lehr-Lernkontext zur Unterstützung der Interaktion von Lehrenden und Studierenden. Heute werden an den Hochschulen zunehmend die weiteren Möglichkeiten der digitalen Technik für Studium und Lehre erkannt und immer mehr in der Praxis an Hochschulen genutzt: Von der Werbung um Studierende bis hin zur Ansprache von Alumni können sie die Qualität, die Leistungsfähigkeit, die Öffnung, Vermarktung und Internationalisierung der Hochschullehre unterstützen (Kerres 2013, Bischof und von Stuckrad 2013); und einige Hochschulen nutzen die Digitalisierung von Lehre und Studium zur Profilbildung und zur besseren Positionierung im nationalen und internationalen Wettbewerb zwischen Hochschulen. ...
Die vorliegende Arbeit geht unmittelbar vom Konzept der Natürlichen Morphologie aus. Am Datenbereich der dt. Substantivflexion soll die explanative Adäquatheit und Prädiktabilität des Konzepts hinsichtlich des Aufbaus und der Veränderung eines Teilflexionssystems als Ganzes überprüft und auf dieser Basis ein Strukturmodell der dt. Substantivflexion vorgeschlagen werden. Insbesondere bei der Erfassung der Gesamtstruktur des Teilflexionssystems werden dabei Probleme des zugrundegelegten theoretischen Ansatzes deutlich werden. Mit der Diskussion und der Überprüfung theoretischer Annahmen, die diese Probleme lösen können, sowie der detaillierten Analyse des Flexionsverhaltens der dt. Substantive soll ein Beitrag zur weiteren Ausformulierung des in eine allgemeine Präferenztheorie einzuordnenden theoretischen Konzepts der Natürlichen Morphologie wie auch zur germanistischen Forschung geleistet werden.
Um zukünftig den städtischen Verkehr – vor allem in Städten und Regionen mit Bevölkerungszuwächsen – ökologisch nachhaltiger abzuwickeln und gleichzeitig die Stadt als attraktiven Wohnort zu gestalten, wird aktuell in Forschung und Praxis eine Vielzahl unterschiedlicher Konzepte diskutiert und erprobt. Eine mögliche stadtplanerische Maßnahme in diesem Kontext ist die Entwicklung autofreier oder autoreduzierter Stadtquartiere. Im Rahmen bisheriger wissenschaftlicher Untersuchungen sind die Voraussetzungen für die Umsetzung solcher Konzepte meist eher unzureichend dokumentiert und analysiert worden. In dieser Forschungsarbeit wurde deshalb untersucht, welche Relevanz verschiedene stadt- und projektbezogene Rahmenbedingungen und Einflussfaktoren bei der Entwicklung autofreier bzw. autoreduzierter Stadtquartiere besitzen.
Wenngleich bei der Realisierung autofreier oder autoreduzierter Projekte zahlreiche Faktoren wirksam sind, können als Ergebnis der Untersuchung vor allem zwei Aspekte als entscheidend für eine erfolgreiche Umsetzung solcher Projekte betrachtet werden. Dies ist zunächst eine ausreichende Unterstützung der Projekte durch die städtische Politik und Verwaltung. Als zweiter wesentlicher Einflussfaktor kann eine Förderung autofreier und autoreduzierter Projekte durch private Initiativen und Vereine gelten.
Die Förderung von Fahrradmobilität und öffentlichem Verkehr ist ein wesentlicher Baustein zur Gestaltung einer ökologisch nachhaltigeren, sozial verträglicheren und ökonomisch tragfähigen Verkehrs- und Siedlungsentwicklung in Deutschland. Mit einer verbesserten intermodalen Verknüpfung werden beide Verkehrsträger attraktiver und somit häufiger genutzt. Öffentliche Verkehrsunternehmen gewinnen dadurch vergrößerte Einzugsbereiche von Haltestellen, können Spitzenbelastungen abfedern und verbessern ihr Image. Fahrradfahrenden ermöglicht die Kombination mit öffentlichen Verkehrsmitteln größere Reichweiten, was gerade auch in randstädtischen, suburbanen oder ländlichen Regionen bedeutsam werden kann. Letztlich leistet die Verknüpfung der beiden Verkehrsträger einen Beitrag zur Daseinsvorsorge und für den Klimaschutz.
Der Handlungsleitfaden wurde innerhalb des Forschungsprojektes „Verbesserte Integration des Fahrrads in den öffentlichen Verkehr – Systematische Erschließung von Handlungsoptionen und Bewertung von Best-Practices“ erarbeitet. Das Projekt wurde vom Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) aus Mitteln zur Umsetzung des Nationalen Radverkehrsplans gefördert.
Elementar für eine zukunftsfähige Verkehrsplanung ist eine möglichst detaillierte Kenntnis des Mobilitätsverhaltens der Bevölkerung in der Region. Zur Analyse des Mobilitätsverhaltens der Bevölkerung in Deutschland wurden in der Vergangenheit auf verschiedenen räumlichen Ebenen mehrere größtenteils voneinander unabhängige Datenerhebungen durchgeführt. Für die Region Frankfurt Rhein-Main besonders relevant sind dabei zum einen die Längsschnitt- bzw. Panelerhebungen des „Rhein-Main-Panels“ (RMP) und des „Deutschen Mobilitätspanels“ (MOP), zum anderen die Querschnittserhebungen der Befragung „Mobilität in Deutschland“ (MiD) und speziell für Frankfurt auch „Mobilität in Städten – SrV“ (SrV).
Ziel dieser Publikation ist es, diese vier unterschiedlichen Erhebungen in einem kurzen Vergleich vorzustellen. Dabei sollen die jeweiligen spezifischen Potentiale, aber auch Einschränkungen aufgezeigt werden, die diese Mobilitätsdatensätze bezüglich der Auswertung und weiteren Nutzung aufweisen. Danach werden in knapper Form mögliche Kombinationsmöglichkeiten dieser Datensätze untereinander, aber auch mit ergänzenden Datenbeständen dargestellt. Anschließend werden die aus den verschiedenen Mobilitätsdatensätzen ermittelten zentralen regionalen Mobilitätskennziffern in einem Vergleich veranschaulicht. Als Abschluss soll schließlich ein kurzer Blick auf mögliche Anwendungsfelder der Mobilitätsdaten in Politik und Planung geworfen werden.
Mit dem Ziel, Erkenntnisse zum individuellen Mobilitätsverhalten im Zusammenhang mit der Gestaltung des umgebenden Verkehrssystems zu gewinnen, wurde im Rahmen des vom Land Hessen geförderten LOEWE-Schwerpunkts „Infrastruktur – Design – Gesellschaft“ im März und April 2019 eine schriftliche Haushaltsbefragung in einem innerstädtischen Gebiet der Großstadt Offenbach am Main durchgeführt (n=701). Der vorliegende Bericht beschreibt die methodische Vorgehensweise bei der Umsetzung und Datenerfassung dieser Erhebung. Dabei wird auf die vorbereitenden Maßnahmen mit Hinblick auf die Erstellung des Fragebogens und weiterer Befragungsmaterialen sowie die Durchführung des Pretests und der eigentlichen Hauptbefragung eingegangen. Um die Bereitschaft einer Teilnahme zu erhöhen, wurden die Haushalte mittels Vorankündigungsschreiben, Pressemitteilung und Erinnerungsrundgang mehrfach kontaktiert. Außerdem wurde ein Teil der Rücksendeumschläge mit Sonderbriefmarken versehen. Abschließend befasst sich der Bericht mit dem Erhebungsrücklauf, der Dateneingabe und -aufbereitung sowie dem ermittelten Antwortverhalten und der Repräsentativität der Stichprobe.