Refine
Year of publication
Document Type
- Working Paper (1016) (remove)
Language
- German (1016) (remove)
Keywords
- Deutschland (108)
- Anton Ulrich <Braunschweig-Wolfenbüttel (18)
- Herzog> / Octavia (18)
- Corporate Governance (17)
- Mobilität (17)
- Kapitalmarktrecht (15)
- Aktienrecht (14)
- USA (13)
- Börsenrecht (11)
- Deutsch (11)
Institute
- Rechtswissenschaft (253)
- Wirtschaftswissenschaften (190)
- Center for Financial Studies (CFS) (93)
- Sustainable Architecture for Finance in Europe (SAFE) (65)
- House of Finance (HoF) (59)
- Geographie (53)
- Gesellschaftswissenschaften (46)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (41)
- Institut für sozial-ökologische Forschung (ISOE) (41)
- Institute for Monetary and Financial Stability (IMFS) (41)
Für Arbeitswege charakteristisch sind eine räumliche und zeitliche Konzentration in Richtung Arbeitsplatzzentren und zu Tagesrandzeiten sowie ein überdurchschnittlich hoher Anteil des motorisierten Individualverkehrs an der Verkehrsmittelnutzung. So tragen Arbeitswege bedeutend zur zyklischen Belastung der Verkehrsinfrastruktur sowie zu städtischen Verkehrs- und Umweltproblemen bei. Da die Verkehrsmittelnutzung vor allem auch auf Arbeitswegen unter stabilen Rahmenbedingungen außerdem in hohem Maße routinisiert abläuft, kommt sogenannten Umbruchsereignissen in Mobilitätsbiographien eine zentrale Bedeutung hinsichtlich einer Reflexion des Mobilitätsverhaltens zu. Aufgrund dessen wird in dieser Arbeit zum einen untersucht, inwiefern überregionale Wohnumzüge (zwischen Bremen, Hamburg und dem Ruhrgebiet) zu einer Veränderung der Verkehrsmittelnutzung auf Arbeitswegen beitragen. Darauf aufbauend wird mittels multivariaten binär-logistischen Regressionsmodellen untersucht, welche Bedeutung veränderte raumstrukturelle Rahmenbedingungen sowie a priori vorhandene Verkehrsmittelpräferenzen für diese Veränderungen haben. Die Ergebnisse zeigen zum einen, dass es im Anschluss an Wohnumzüge zu einer signifikanten Veränderung der Verkehrsmittelnutzung auf Arbeitswegen in Form von einer Anpassung dessen an die mobilitätsbezogenen Rahmenbedingungen des Zielortes des Wohnumzugs kommt. Anhand der multivariaten Regressionsmodelle kann darüber hinaus ein signifikanter Einfluss raumstruktur- und präferenzbezogener Faktoren auf die Veränderung der Verkehrsmittelnutzung auf Arbeitswegen nachgewiesen werden. Da sich der Einfluss dieser Faktoren je nach Verkehrsmittel zum Teil sehr unterschiedlich gestaltet, werden aus diesen Ergebnissen abschließend verkehrsmittelspezifische Maßnahmen, z.B. zur Gestaltung eines (betrieblichen) Mobilitätsmanagements, abgeleitet.
Um zukünftig den städtischen Verkehr – vor allem in Städten und Regionen mit Bevölkerungszuwächsen – ökologisch nachhaltiger abzuwickeln und gleichzeitig die Stadt als attraktiven Wohnort zu gestalten, wird aktuell in Forschung und Praxis eine Vielzahl unterschiedlicher Konzepte diskutiert und erprobt. Eine mögliche stadtplanerische Maßnahme in diesem Kontext ist die Entwicklung autofreier oder autoreduzierter Stadtquartiere. Im Rahmen bisheriger wissenschaftlicher Untersuchungen sind die Voraussetzungen für die Umsetzung solcher Konzepte meist eher unzureichend dokumentiert und analysiert worden. In dieser Forschungsarbeit wurde deshalb untersucht, welche Relevanz verschiedene stadt- und projektbezogene Rahmenbedingungen und Einflussfaktoren bei der Entwicklung autofreier bzw. autoreduzierter Stadtquartiere besitzen.
Wenngleich bei der Realisierung autofreier oder autoreduzierter Projekte zahlreiche Faktoren wirksam sind, können als Ergebnis der Untersuchung vor allem zwei Aspekte als entscheidend für eine erfolgreiche Umsetzung solcher Projekte betrachtet werden. Dies ist zunächst eine ausreichende Unterstützung der Projekte durch die städtische Politik und Verwaltung. Als zweiter wesentlicher Einflussfaktor kann eine Förderung autofreier und autoreduzierter Projekte durch private Initiativen und Vereine gelten.
Der Beitrag arbeitet d’Alemberts Absicht heraus, durch eine mathematisch begründete Wissensordnung, die einen universellen Geltungsanspruch erhebt, die Dogmatik des religiösen Glaubens genauso wie die Autoritätshörigkeit der ständischen Gesellschaft zu diskreditieren und somit die bestehenden Machtverhältnisse zu destabilisieren. Mit der universalistischen Wissensordnung der Enzyklopädie soll schließlich auch eine neue normative Ordnung etabliert werden. Dabei ist die Rolle der Enzyklopädisten als Aufklärer der unaufgeklärten Gesellschaft Teil der universalistischen Wissensordnung. Obwohl sich die beanspruchte emanzipative Wirkung des enzyklopädischen Universalismus im historischen Kontext von Dogmatismus und Despotismus nachvollziehen lässt, stellt sich die Frage, inwieweit dieser universalistische Anspruch tatsächlich eine ‚kritischen Haltung’, wie sie von Foucault anhand Kants Schrift „Was ist Aufklärung?“ definiert wird, genügt oder doch nur eine ‚Wissenskritik’ bleibt. Die Haltungsfrage verweist auf d’Alemberts ambivalentes Verhältnis zu den politischen Autoritäten seiner Zeit.
Die Globalisierung hat nicht, wie es sowohl ordoliberale als auch kritische Theorien einer globalen „economic constitution“ erwarten, eine einheitliche Weltwirtschaftsverfassung hervorgebracht, sondern eine fragmentierte Kollisionsverfassung, d.h. eine Metaverfassung von Verfassungskonflikten. Als deren kollidierende Einheiten fungieren nicht mehr die Nationalstaaten, sondern transnationale Produktionsregimes. Die von Böhm und Sinzheimer für den Nationalstaat formulierte Alternative von ordoliberaler Wirtschaftsverfassung und sozialdemokratischer Wirtschaftsdemokratie ist in der transnationalen Wirtschaftsverfassung vom Gegensatz zwischen den neokorporatistisch organisierten Produktionsregimes Kontinentaleuropas und den finanzkapitalistisch geprägten Produktionsregimes anglo-amerikanischer Prägung, abgelöst worden. Entgegen allen Voraussagen haben die neo-korporatistischen Wirtschaftsverfassungen Kontinentaleuropas trotz Globalisierung und Wirtschaftskrise eine erstaunliche Resilienz bewiesen. Einer wirtschaftsdemokratischen Konstitutionalisierung eröffnen sich hier neue Chancen dadurch, dass, wie am Beispiel der Corporate Codes gezeigt wird, unternehmensexterne gesellschaftliche Kräfte, also neben staatlichen Interventionen rechtliche Normierungen und „zivilgesellschaftliche“ Gegenmacht aus anderen Kontexten so massiven Druck auf die Unternehmen ausüben, dass sie gezwungen sind, gemeinwohlbezogene Selbstbeschränkungen aufzubauen.
100 Jahre Fachbereich Rechtswissenschaft ist auch ein Grund, derer zu gedenken, die über eine lange Strecke dieser Zeitspanne das Bild des Fachbereichs entscheidend mitgeprägt haben, aber nicht mehr mitfeiern können. Darunter verdient ein Strafrechtsprofessor und Rechtsphilosoph besondere Hervorhebung und Würdigung. Prof. Dr. Dr. h.c. mult. Winfried Hassemer. Das Verständnis von der gegenseitigen Befruchtung in Theorie-Praxis-Projekten brachte Hassemer aus der akademischen Welt mit in seine hohen Staatsämter: Hessischer Datenschutzbeauftragter, Richter und Vizepräsident des Bundesverfassungsgerichts. Schließlich konnte er in der Rolle des Anwalts gleichsam als „Gegenprobe“ auch noch seine schon lange gezeigte Zuneigung zum Beruf des Strafverteidigers erleben. Der fruchtbare Dialog zwischen Theorie und Praxis setzte sich 12 Jahre lang im „Frankfurter Arbeits-Kreis Strafrecht“ („FAKS“) fort, zu dessen Gründern Hassemer gehörte. Dabei haben Strafverteidiger, Richter, Staatsanwälte, Ministerialbürokratie, Strafvollzugs und Polizeibeamte mit auch Rechtswissenschaftlern im konstruktiven Diskurs die Abstände zwischen unseren „Berufswelten“ verringert. Im Zentrum stand sein Bekenntnis, dass das staatliche Strafen ein „blutiges Geschäft“ ist, das nur als ultima ratio und auch nur dann zu rechtfertigen ist, wenn „schützende Formen“ des Verfahrensrechts strafbegrenzend wirken. Der Fachbereich Rechtswissenschaft wird auch in dem jetzt beginnenden zweiten Jahrhundert seines Bestehens das Andenken an Winfried Hassemer hoch halten.
Zum ersten Mal wurde in Deutschland eine groß angelegte wissenschaftliche Studie zur Machbarkeit und zum Nutzen einer säulenübergreifenden Renteninformationsplattform durchgeführt, unter realen Bedingungen und mit mehreren tausend Teilnehmern. Die beiden zentralen Ergebnisse sind, dass ein elektronisches Rentencockpit auch in Deutschland technisch machbar ist und beträchtlichen individuellen Zusatznutzen für die Bürgerinnen und Bürger stiften würde. Die Langfristanalysen der Pilotstudie zeigen, dass selbst die einmalige Schaffung von Rententransparenz für viele Teilnehmer Anlass genug ist, ihren Rentenplan zu überdenken und sich aktiv mit ihrer Altersvorsorge auseinanderzusetzen und ihr Verhalten zu ändern. Teilnehmer mit Zugang zu einem elektronischen Rentencockpit fühlen sich nach der Studie deutlich besser informiert und neigen dazu ihr Sparverhalten stärker anzupassen als Personen ohne Zugang. Die außerordentlich hohe Bereitschaft zur Teilnahme und die Antworten in den Online-Befragungen sind zudem Beleg für den großen Bedarf an systemgestützter, individueller Rententransparenz. Soll ein Rentencockpit Verbreitung in Deutschland finden, scheint eine automatisierte, elektronische Bereitstellung von Vertragsdaten von Seiten der Rententräger jedoch unabdingbar, da die eigenständige Suche und teilmanuelle Bereitstellung von Standmitteilungen für die meisten Studienteilnehmer ein großes Hindernis darstellt.
In den 1980er und den frühen 1990er Jahren waren japanische Banken die weltweit größten Finanzinstitute und galten als Inbegriff „globaler“ Banken. Der Crash der japanischen Wertpapier- und Immobilienmärkte Anfang der 1990er Jahre und die nachfolgende Rezession waren Anlass zu tiefgreifenden Reformen im japanischen Finanzsystem. Die japanischen Banken waren gezwungen, ihre internationalen Strategien zu reformulieren. Als Konsequenz zogen sie sich aus vielen Märkten zurück und strukturierten ihre internationalen Netzwerke um. Vor dem Hintergrund theoretischer Überlegungen zu der Bedeutung von „Globalität“ und einer empirischen Untersuchung der Entwicklung der Auslandsstellennetze japanischer Banken in den 1980er und 1990er Jahren stellt der vorliegende Beitrag die Globalität japanischer Banken in Frage.
1. Die Vorschrift des § 18 Abs. 2 WpÜG ist gegen den zu weit geratenen Wortlaut unter Berücksichtigung des Regelungszwecks einschränkend dahin auszulegen, dass ein Angebot mit einem Widerrufs- oder Rücktrittsvorbehalt versehen werden kann, sofern der Bieter oder ihm nach § 18 Abs. 1 WpÜG zuzurechnende Personen oder Unternehmen den Eintritt des Widerrufs- oder Rücktrittsgrunds nicht ausschließlich selbst herbeiführen können. 2. Eine Entscheidung zur Abgabe eines Angebots i.S. des § 10 Abs. 1 Satz 1 WpÜG ist gegeben, wenn die Entscheidung nur noch von Umständen abhängt, deren Eintritt der Bieter oder ihm nach § 18 Abs. 1 WpÜG zuzurechnende Personen oder Unternehmen nicht ausschließlich selbst herbeiführen können, die also nicht aus dem Herrschaftsbereich des Bieters stammen. 3. Der Bieter kann die Entscheidung zur Abgabe eines Angebots analog § 18 Abs. 2 WpÜG ebenso wie ein Angebot unter einen Widerrufs- oder Rücktrittsvorbehalt stellen, sofern der Bieter oder ihm nach § 18 Abs. 1 WpÜG zuzurechnende Personen oder Unternehmen den Eintritt des Widerrufs- oder Rücktrittsgrunds nicht ausschließlich selbst herbeiführen können. Zulässig ist analog §§ 18 Abs. 1, 25 WpÜG zudem ein auf die Zustimmung der Gesellschafterversammlung des Bieters bezogener Vorbehalt. Darüber hinaus darf der Bieter eine Angebotsankündigung mit einem Finanzierungsvorbehalt für den Fall versehen, dass die Gesellschafterversammlung nicht vor Veröffentlichung der Angebotsunterlage einer für die Finanzierung des Angebots erforderlichen Kapitalmaßnahme zustimmt. 4. Der Widerruf der Entscheidung zur Abgabe eines Angebots ist als actus contrarius zu der Angebotsankündigung erst mit Veröffentlichung analog § 10 Abs. 3 Satz 1 WpÜG beachtlich. 5. Mit ordnungsgemäß veröffentlichtem Widerruf der Entscheidung wird der Bieter von der Pflicht zur Übermittlung einer Angebotsunterlage an die BaFin (§ 14 Abs. 1 Satz 1 WpÜG) sowie zur Veröffentlichung einer Angebotsunterlage (§ 14 Abs. 2 Satz 1 WpÜG) frei. Eine Untersagung des Angebots gemäß § 15 Abs. 1 Nr. 3 oder 4 WpÜG kommt damit nicht mehr in Betracht. Darüber hinaus stellt die Nichtübermittlung oder Nichtveröffentlichung der Angebotsunterlage in diesem 15 Fall keine Ordnungswidrigkeit gemäß § 60 Abs. 1 Nr. 1 a) oder Nr. 2 a) WpÜG dar.
To resolve the IPO underpricing puzzle it is essential to analyze who knows what when during the issuing process. In Germany, broker-dealers make a market in IPOs during the subscription period. We examine these pre-issue prices and find that they are highly informative. They are closer to the first price subsequently established on the exchange than both the midpoint of the bookbuilding range and the offer price. The pre-issue prices explain a large part of the underpricing left unexplained by other variables. The results imply that information asymmetries are much lower than the observed variance of underpricing suggests.
Das vorliegende Arbeitspapier analysiert die sich in Westmittelfranken konzentrierende Kunststoff verarbeitende Industrie. Im Mittelpunkt der Analyse stehen die Wertschöpfungsprozesse der Unternehmen und damit verbunden unterschiedliche Interaktionsformen und Vertragsbeziehungen innerhalb der Branche. Die Arbeit diskutiert, ob es sich bei der regionalen Konzentration der Branche um ein sogenanntes Cluster handelt, aus dem Unternehmen Synergien bei der Wertschöpfung und unternehmerische Wettbewerbsvorteile gewinnen können. Die Analyse ist Teil eines Forschungsprojektes zum Thema „Innovationsfinanzierung im Mittelstand“ am Institut für Humangeographie (Abteilung Wirtschaftsgeographie) der Johann Wolfgang Goethe-Universität Frankfurt.
Wettbewerbsrecht der GKV
(2014)
Seit inzwischen 20 Jahren führt der Gesetzgeber in die Binnenordnung der Gesetzlichen Krankenversicherung Wettbewerbselemente ein. Ausgangspunkt ist die Kassenwahlfreiheit der Versicherten. Die Krankenkassen agieren dadurch immer stärker als Wettbewerber um Versicherte. Seit einigen Jahren ist der Rechtsrahmen dieses Wettbewerbs in der Diskussion und auch prozessual und politisch umstritten. Inwieweit das allgemeine Kartellrecht, konkret die Fusionskontrolle, oder das allgemeine Lauterkeitsrecht Anwendung finden soll, ist noch nicht abschließend geklärt. Weniger grundsätzliche Probleme bereitet hingegen das Vergaberecht. Der Beitrag beschreibt die sich im Fluss befindliche Rechtsgrundlage des GKV-Wettbewerbsrechts in ihrer bisherigen Entwicklung und auf dem Stand von 2013.
Der Deutsche Juristentag 2012 ließ begutachten, wie der Wettbewerb in der Gesetzlichen Krankenversicherung zu regeln sei. Der vorliegende Beitrag ist als Begleitaufsatz hierzu erschienen. Er spürt den Motiven des Gesetzgebers und den theoretischen und konzeptionellen Gründen für Wettbewerb nach, um daraus Antworten auf die Frage nach der Wettbewerbsregulierung im Gesundheitswesen zu entwickeln. Sein Ergebnis ist, dass die spezifische Funktion von Wettbewerb innerhalb des sozialrechtlichen Krankenversicherungssystems ein spezifisches Regulierungsrecht erfordert. Dies ist gegenüber einer generellen Zuordnung dieses Sozialsystems zum allgemeinen Wettbewerbs- und Kartellrecht vorzugswürdig. Außerdem wird die Zuordnung zu den Sozialgerichten befürwortet.
Seit der Einführung des Deutschen Corporate Governance Kodex (Kodex) im Jahr 2002 sind deutsche börsennotierte Unternehmen zur Abgabe der Entsprechenserklärung gemäß § 161 AktG verpflichtet (Comply-or-Explain-Prinzip). Auf der Basis dieser Information soll durch den Druck des Kapitalmarkts die Einhaltung des Kodex überwacht und gegebenenfalls sanktioniert werden. Dabei wird regelmäßig postuliert, dass bei überdurchschnittlicher Befolgung bzw. Nichtbefolgung der Kodex-Empfehlungen eine Belohnung durch Kurszuschläge bzw. eine Sanktionierung durch Kursabschläge erfolgt. Die Ergebnisse einer Ereignisstudie zeigen, dass die Abgabe der Entsprechenserklärung keine erhebliche Kursbeeinflussung auslöst und die für das Enforcement des Kodex angenommene (und erforderliche) Selbstregulierung durch den Kapitalmarkt nicht stattfindet. Es wird daher kritisch hinterfragt, ob der für den Kodex gewählte und grundsätzlich zu begrüßende flexible Regulierungsansatz im System des zwingenden deutschen Gesellschaftsrechts einen geeigneten Enforcement-Mechanismus darstellt. This paper studies the short-run announcement effects of compliance with the German Corporate Governance Code (‘the Code’) on firm value. Event study results suggest that firm value is unaffected by the announcement, although such market reactions to the first time disclosure of the declaration of conformity were widely assumed by the private and public promoters of the Code. This result from acceptance of the German Code add evidence to the hypothesis that regulatory corporate governance initiatives that rely on mandatory disclosure without monitoring and enforcement are ineffective in civil law countries.
Rechtsvergleichend wird betrachtet, wem in Deutschland und den USA das Recht zu wählen zusteht. Es wird dargestellt, dass die gleichheitsrechtlich begründete Ausdehnung des Wahlrechts auf früher exkludierte Personengruppen keine lineare Fortschrittsgeschichte ist.
Der Kampf um das Wahlrecht in den USA war weitgehend Teil des Kampfes gegen Rassendiskriminierung. Änderungen des Wahlrechts in bestimmten Einzelstaaten der USA stellen einen erheblichen Rückschritt im Hinblick auf die Allgemeinheit der Wahl dar, da sie Verschärfungen mit sich bringen, die ohnehin schon benachteiligte Bevölkerungsgruppen faktisch vom Wahlrecht ausschließen.
Auch in Deutschland war es ein langwieriger Prozess, bis sich die Allgemeinheit der Wahl durchsetzte. Aber auch in Deutschland ist die Allgemeinheit der Wahl noch in mehrfacher Hin-sicht beschränkt. Insbesondere die Einschränkungen des Wahlrechts für Strafgefangene wie auch das Wahlrecht für Auslandsdeutsche sind verfassungsrechtliche sehr problematisch. Auch Reformvorschläge, wie etwa die Einführung eines Kinderwahlrechts, treuhänderisch durch die Eltern ausgeübt, sind verfassungsrechtlich äußerst bedenklich.
Das Bundesverfassungsgericht sieht sich wegen seiner Entscheidungen, insbesondere zur europäischen Integration sowie zur rechtlichen Gleichstellung der Ehe mit der eingetragenen Lebenspartnerschaft, in jüngster Zeit mit zunehmender Kritik aus den Reihen der politischen Akteure konfrontiert. Die Rechtskolumne stellt diese Kritik in einen historischen Kontext und zeigt, dass inhaltliche Konflikte zwischen dem Gericht und der Politik ein wiederkehrendes Phänomen darstellen. Daran anschließend werden in der Diskussion stehende Maßnahmen zur Begrenzung des gerichtlichen Einflusses analysiert, die sich aber im Ergebnis als wenig erfolgversprechend bzw. aufgrund ihrer negativen strukturellen Auswirkungen als nicht tragfähig erweisen.
Um eine grüne Transformation der Volkswirtschaft zu erreichen, werden Finanzmärkte und die mit ihnen verbundenen Banken eine wichtige Rolle einnehmen müssen. Aber allein vermögen Banken und Kapitalmärkte wenig, wenn sie nicht im Kontext einer klugen, politischen Rahmensetzung und einer transparenten Erfassung der verursachten Schäden auf Unternehmensebene gesehen werden. Diese drei Pfeiler stellen bildlich den tragenden Unterbau für eine Brücke hin zu einer klimaneutralen Wirt-schaftsverfassung dar. Ihr Zusammenwirken ist eine Voraussetzung dafür, dass die Finanzwirtschaft die benötigten Finanzmittel für die grüne Transformation bereitstellen kann.
I. Einführung Der Gesetzgeber hat mit dem am 1. 11. 2005 in Kraft getretenen „Gesetz zur Unternehmensintegrität und Modernisierung des Anfechtungsrechts (UMAG)“ eine Reform der Anfechtung von Hauptversammlungsbeschlüssen im Aktienrecht eingeleitet. Diese Reform verfolgt im Wesentlichen folgende Ziele: Erstens, die beklagten Gesellschaften sollen leichter und schneller als bisher die Eintragung angefochtener Beschlüsse ins Handelsregister erwirken können, wenn dem keine schwerwiegenden Bedenken entgegenstehen. Zweitens, die funktionswidrige Verwendung der Anfechtungsklage und mißbräuchliche Klagen sollen weiter zurückgedrängt, und die nachteilige Entwicklung eines „Klagegewerbes“ soll eingedämmt werden. Drittens, Qualität und Geschwindigkeit landgerichtlicher Entscheidungen in Beschlußmängelprozessen sollen verbessert werden. Eine empirische Studie zu den Auswirkungen des UMAG in der Unternehmens- und Gerichtspraxis in diesem Bereich hat ergeben, daß der Gesetzgeber wichtige Schritte unternommen hat, daß aber nicht alle Ziele erreicht werden konnten, sondern weiterer dringlicher Reformbedarf besteht, der sich im Wesentlichen erst in jüngerer Zeit, nach dem Abschluß der Beratungen zum UMAG, entwickelt und gezeigt hat. Das Bundesministerium der Justiz hat inzwischen angekündigt, daß weitere gesetzliche Maßnahmen vor allem gegen die zunehmende Flut von Beschlußmängelklagen durch Berufskläger erwogen werden sollen. Die nachstehenden Überlegungen wollen zu dieser Diskussion beitragen. Dabei bleiben die – zwar in engem Zusammenhang hiermit stehenden, gleichwohl Spezialfragen betreffenden – Vorschläge des Handelsrechtsausschusses des DAV zur Ausweitung des Spruchverfahrens bei Umwandlung und Sachkapitalerhöhung hier ausgeklammert. ... VII. Zusammenfassung 1. Es sind weitere gesetzliche Maßnahmen gegen die zunehmende Anzahl von Beschlußmängelklagen durch Berufskläger erforderlich. 2. Gegen das Erfordernis eines pauschalen Mindestanteilsbesitzes als Voraussetzung der Anfechtungsklage bestehen rechtliche und praktische Bedenken. 3. Das Freigabeverfahren sollte umgestaltet werden: Bei den materiellen Freigabevoraussetzungen sollte die sog. Interessenabwägungsklausel im Gesetz entsprechend der Regierungsbegründung zum UMAG gefaßt werden, so daß im praktischen Ergebnis die Eintragung eines angefochtenen strukturändernden Beschlusses in aller Regel vorzunehmen ist, wenn nicht im Einzelfall die Schwere der mit der Klage geltend gemachten Rechtsverletzung dies ausschließt. Das Freigabeverfahren sollte ferner auf eine Instanz beschränkt werden; hierfür sollte die ausschließliche Zuständigkeit der Oberlandesgerichte vorgesehen werden. 4. Die Anreize für Aktionäre, Anfechtungsklagen zu erheben, um sich nicht den Nachteilen - insbesondere der überlangen Dauer - eines Spruchverfahrens aussetzen zu müssen, sollten beseitigt werden.
Über die Wirkung der Förderung der beruflichen Weiterbildung in Ostdeutschland sind in den letzten Jahren zahlreiche empirische Studien durchgeführt worden, die auf den methodischen Fortschritten der Evaluationsforschung aufbauen. Dieser Beitrag stellt die empirische Evidenz im Kontext der institutionellen Regelungen und der methodischen Probleme einer angemessenen mikro- oder makroökonomischen Evaluation dar. Insbesondere behandeln wir die im ostdeutschen Kontext wichtigen Probleme der Mehrfachteilnahmen und der Reduktion der Beschäftigungsquoten für die Teilnehmer kurz vor einer Weiterbildung ("Ashenfelters Tal"), die bislang in empirischen Analysen kaum Berücksichtigung finden. Die durchgeführten mikroökonomischen Evaluationsstudien basieren auf Umfragedaten mit kleinen Teilnehmerzahlen. Die erzielten Evaluationsergebnisse ergeben ein ernüchterndes Bild der Wirkung geförderter Weiterbildung: Es zeigen sich eher negative als positive Maßnahmeneffekte auf die Beschäftigung. Aufgrund der schwachen Datenbasis und verbleibender methodischer Probleme erlaubt die bisherige Evidenz jedoch noch keine wirtschaftspolitischen Schlussfolgerungen. Stattdessen sollten die eher negativen Ergebnisse von der politischen Seite zum Anlass genommen werden, die Voraussetzungen für eine angemessene und kontinuierliche Evaluation der aktiven Arbeitsmarktpolitik zu schaffen.
Das hier vorgelegte Eckpunktepapier befasst sich mit den Zukunftsperspektiven der deutschen Wasserwirtschaft hinsichtlich ihrer Produkte und Konzepte. Ausgehend von schwierigen Herausforderungen für die globale Wasserwirtschaft legt es dar, wie die deutsche Wasserwirtschaft diesen Herausforderungen gegenübersteht und zeigt auf, welche Maßnahmen zu ergreifen sind, um die wirtschaftlichen Perspektiven der deutschen Wasserwirtschaft dauerhaft zu verbessern. Die Abschnitte 1-5 erläutern die Ausgangslage der deutschen Wasserwirtschaft, beschreiben sich neu stellende Herausforderungen und ordnen in diesen Zusammenhang das BMBF-Verbundprojekt „Wasser 2050“ ein, in dem diese Eckpunkte und Empfehlungen erarbeitet wurden. Die Abschnitte 6-10 wenden sich dann im Einzelnen zu ergreifenden Strategien und Ansätzen zu, die dazu beitragen, die Wettbewerbsposition der deutschen Wasserwirtschaft nachhaltig zu entwickeln. Der abschließende Abschnitt 11 fasst die Empfehlungen des Projekts zusammen.
Um weltweit die Wasser- und die Sanitärversorgung zu sichern, muss zeitnah in großem Umfang in neue Trinkwasser- bzw. Abwassersysteme investiert werden. Nicht nur die Länder des globalen Südens stehen im Wassersektor vor erheblichen Herausforderungen, auch die meisten Industrieländer haben Nachholbedarf und massive Investitionserfordernisse. Angesichts des globalen Investitionsbedarfes ist mit einem rasant wachsenden Markt für Wasser- und Abwassertechnologien zu rechnen, der auch der deutschen Industrie gute Absatzchancen bietet. Die vorhandenen Stärken der deutschen Wasserwirtschaft auszubauen und deren Innovationsfähigkeit zu fördern, ist daher eine zentrale politische und gesellschaftliche Aufgabe. Dafür muss die derzeitige Forschungs- und Entwicklungsförderung intensiviert und neu justiert werden, wobei auf sehr guten Vorarbeiten aufgebaut werden kann.
Wasserbedarfsprognosen sind für Wasserversorger eine wichtige Entscheidungsgrundlage für zukünftige Maßnahmen in der wirtschaftlichen und technischen Betriebsführung sowie beim Ressourcenmanagement. In den letzten zwei Jahrzehnten sanken in Deutschland die spezifischen Wasserbedarfe aufgrund von Technik- und Verhaltensinnovationen. Für Regionen mit Wirtschafts- und Bevölkerungswachstum ist aber das Zusammenspiel dieser für den zukünftigen Bedarf konträren Entwicklungen von besonderem Interesse. Auch die Metropolregion Hamburg ist von diesen Entwicklungen betroffen.
Im Auftrag des Wasserversorgers HAMBURG WASSER aktualisierte das ISOE (Forschungsschwerpunkt Wasserressourcen und Landnutzung) in Kooperation mit dem ifo Institut München seine mittel- und langfristige Wasserbedarfsprognose aus dem Jahr 2007 für das Versorgungsgebiet des Auftraggebers. In einem innovativen Konzept wurden dafür Forschungsmethoden aus Natur-, Wirtschafts-, Planungs- und Sozialwissenschaften kombiniert. Mit dem gewählten transdisziplinären Forschungsmodus war das Projekt darauf angelegt, im laufenden Forschungsprozess gemeinsam mit den wissenschaftlichen und außerwissenschaftlichen Projektpartnern das Prognosekonzept weiterzuentwickeln. Der vorliegende Studientext basiert auf dem Projektbericht an HAMBURG WASSER und fasst Prognosekonzept, Modellentwicklung, Prognoseergebnissen und Schlussfolgerungen zusammen.
Der vorliegende Beitrag führt eine detaillierte empirische Untersuchung über die Rolle der amtlichen Kursmakler an der Frankfurter Wertpapierbörse durch. Der verwendete Datensatz erlaubt eine Analyse des Einflusses der Maklertätigkeit auf Liquidität und Volatilität sowie eine Beurteilung der Profitabilität der Eigengeschäfte.
Die Beteiligung der Makler am Präsenzhandel ist erheblich. Ihre Eigengeschäfte machen über 20% des Handelsvolumens zu gerechneten Kursen und über 40% des Handelsvolumens im variablen Handel aus. Für letzteren wird zudem dokumentiert, daß die Tätigkeit der Makler zu einer deutlichen Reduktion der Geld-Brief-Spannen beiträgt. Die letztendlich gezahlte effektive Spanne beträgt im Durchschnitt weniger als ein Drittel der Spanne, die sich aus dem Orderbuch ergibt.
Für den Handel zu gerechneten Kursen wird gezeigt, daß die Preisfeststellung durch die Makler zu einer Verringerung der Volatilität führt. Eine Beurteilung des Einflusses der Makler auf die Volatilität im fortlaufenden Handel scheitert daran, daß das hierfür teilweise verwendete Maß, die Stabilisierungsrate, nach unserer Einschätzung keine aussagekräftigen Resultate liefert.
Die Makler erzielten während unseres Untersuchungszeitraums im Durchschnitt keinen Gewinn aus ihren Eigengeschäften. Eine Zerlegung der Gewinne in zwei Komponenten zeigt, daß positive Spannengewinne im Aggregat nicht für entstehende Positionierungsverluste kompensieren können.
Insgesamt zeigt unsere Untersuchung, daß die Kursmakler an den deutschen Wertpapierbörsen einen Beitrag zur Sicherung der Marktqualität leisten. Die Konsequenzen dieser Resultate für die Organisation des Aktienhandels in Deutschland werden diskutiert.
„Bedeutende Finanzplätze“ oder Finanzzentren sind eng abgegrenzte Orte mit einer beträchtlichen Konzentration wichtiger professioneller Aktivitäten aus dem Finanzdienstleistungsbereich und der entsprechenden Institutionen. Allerdings: „Finance is a footloose industry“: Die Finanzbranche kann abwandern, ein Finanzzentrum kann sich verlagern, möglicherweise auch einfach auflösen. Die Möglichkeit der Auflösung und der Abwanderung stellt eine Bedrohung dar, die in der Zeit der Globalisierung und der rasanten Fortschritte der Transport- und der Informations- und Kommunikationstechnik ausgeprägter sein dürfte, als sie je war. Frankfurt ist zweifellos ein „bedeutender Finanzplatz“, und manchen gilt er auch als bedroht. Allein deshalb ist unser Thema wichtig; und auch wenn die Einschätzungen von Bedeutung und Bedrohtheit keineswegs neu sind, ist es doch aktuell. Der Aspekt der Bedrohtheit prägt, wie wir die Frage im Titel verstehen und diskutieren möchten. Was ist ein „bedeutender Finanzplatz“? Selbst wenn man das Attribut „bedeutend“ erst einmal beiseite lässt, ist die Frage keineswegs trivial. Sie zielt ja nicht nur auf eine Begriffsklärung, eine Sprachregelung ab. Hinter dem Begriff steht oft auch eine Vorstellung vom „Wesen“ dessen, was ein Begriff bezeichnet. Also: Was macht einen Finanzplatz aus? Und weiter: Warum gibt es überhaupt Finanzplätze als beträchtliche Konzentrationen von bestimmten wichtigen Aktivitäten und Institutionen? Welche Kräfte führen - oder zumindest führten - zu der räumlichen Konzentration der Aktivitäten und Institutionen, wie wirken diese Kräfte, und wie ändern sie sich gegebenenfalls? Diesen Fragen ist dieser Beitrag im Wesentlichen gewidmet, und sie prägen seinen Aufbau. Im Abschnitt II wird diskutiert, was ein „bedeutender Finanzplatz“ ist oder woran man ihn erkennt und „was er braucht“. Im Abschnitt III gehen wir zuerst auf die Frage nach der in letzter Zeit unter dem Stichwort „the end of geography“ heftig diskutierten Vorstellung einer Auflösung oder Virtualisierung der Finanzplätze ein – nicht weil dies die wichtigere Bedrohung wäre, sondern weil es die grundlegendere Frage darstellt. Dann diskutieren wir den Wettbewerb von Finanzplätzen in Europa. Den Abschluss bilden Überlegungen zu den Perspektiven des Finanzplatzes Frankfurt und der möglichen Förderung seiner Entwicklung.
Mobilität ist eine wesentliche Voraussetzung, um an außerhäuslichen Aktivitäten teilzunehmen und somit am gesellschaftlichen Leben teilhaben zu können. Da das Nutzen von Verkehrsmitteln mit Kosten verbunden ist, kann dies insbesondere für Personen mit geringen Einkünften eine Mobilitätsbarriere darstellen und das Risiko erhöhen, von mobilitätsbezogener sozialer Exklusion betroffen zu sein.
Eine besondere und tragende Rolle fällt dem öffentlichen Personennahverkehr zu (ÖPNV), auf den wir mit diesem methodischen Beitrag eingehen möchten: Zunächst tragen wir zusammen, wie finanzielle ÖPNV-Erschwinglichkeit quantifiziert werden kann, wobei wir auf Grundlage internationaler Fachliteratur zwei Ansätze (beobachtete und potenzielle Erschwinglichkeit) unterscheiden. Anschließend diskutieren wir mögliche Indikatoren für die ÖPNV-Erschwinglichkeit, die auf dem Einkommen privater Haushalte basieren. Darüber hinaus skizzieren wir einen GIS-basierten Indikator für den Nutzen des Deutschlandtickets, das seit Mai 2023 bundesweit im ÖPNV gilt.
Von Februar bis Juni 2015 hat die Europäische Zentralbank (EZB) die Notfall-Liquiditätshilfen (emergency liquidity assistance, ELA) für griechische Banken von 50 auf etwa 90 Milliarden Euro ausgeweitet. Dies hat zu einer Diskussion unter Wissenschaftlern, Politikern und Praktikern geführt, ob diese Liquiditätshilfen rechtmäßig sind. Es wurde der Vorwurf erhoben, die EZB trage bewusst zu einer Konkursverschleppung der bereits insolventen griechischen Banken bei.
Wir nehmen diesen Vorwurf zum Anlass, die Grundsätze des ELA-Programms genauer zu betrachten und die Frage zu diskutieren, ob das Programm in der aktuellen Situation rechtmäßig war. Zunächst beschreiben wir hierfür aus finanzwirtschaftlicher Perspektive die komplexe Beziehung zwischen der Europäischen Union, der EZB und den griechischen Banken. Dabei gehen wir insbesondere auf die wirtschaftspolitischen Grundsätze einer Währungsunion mit einer unvollständigen Fiskalunion (oder Haushaltskonsolidierung) ein. Vor diesem Hintergrund analysieren wir dann die Entscheidung der EZB, weiterhin Liquiditätshilfen an griechische Banken bereitzustellen. Wir kommen zu dem Ergebnis, dass das Vorgehen der EZB nicht als Konkursverschleppung zu bezeichnen ist.
Als Wandelschuldverschreibung im eigentlichen und engeren Sinne ist die Wandelanleihe nach § 221 Abs. 1 AktG eine Schuldverschreibung, die dem Gläubiger ein Umtauschrecht in Aktien gewährt. Nach herkömmlichem Verständnis verbindet sie die Sicherheit der Kapitalrückzahlung mit einem spekulativen Element in Form des Umtauschrechts. Der Anleger kann am Zuwachs des Unternehmenswertes teilnehmen, ohne das aktionärstypische Risiko des Unternehmenswertverlustes tragen zu müssen. Eine solche Kombination von Sicherheit und aktionärstypischen Gewinnchancen bietet nicht nur für den Anleger, sondern auch für den Emittenten Vorteile. Für das Unternehmen ist zudem von Interesse, das Kapital des Anlegers möglichst langfristig zu binden. Auf der Suche nach neuen Finanzierungsquellen sind die Unternehmen allerdings darauf angewiesen, immer differenziertere Finanztitel zu emittieren und sich dadurch verstärkt den unterschiedlichen Anlegerinteressen anzupassen. Hierbei auf ein eher konservatives, auf Sicherheit bedachtes Instrument wie die Wandelanleihe zurückzugreifen, mag zunächst erstaunen. Mit der Einführung einer Wandlungspflicht verschiebt sich allerdings das Verhältnis von Sicherheit und Teilnahme an der Unternehmenswertentwicklung. Damit entsteht ein äußerst spekulatives Instrument, das sich mit dem herkömmlichen Verständnis einer Wandelanleihe kaum mehr deckt. Die Praxis setzt dieses Instrument bereits ein. So emittierte die Daimler Benz AG am 23. März 1997 eine Daimler Benz AG Wandelanleihe von 1997/2002 mit Pflichtwandlung am Ende der Laufzeit . Hiermit betrat die Daimler Benz AG Neuland auf den europäischen Finanzmärkten. Weitere Gesellschaften ziehen die Begebung einer Wandelschuldverschreibung mit Wandlungspflicht ebenfalls in Betracht. Ziel des vorliegenden Beitrags ist es, die rechtlichen Rahmenbedingungen der Wandelanleihe mit Wandlungspflicht zu beleuchten und die Bedeutung und rechtlichen Konsequenzen der Wandlungspflicht für die Beteiligten zu bestimmen. Ausgangspunkt ist die Wandelanleihe nach herkömmlichem Verständnis. Hier sind kurz die Grundlagen des Leistungsversprechens und des Umtauschrechts zu rekapitulieren (I.). Für die Erörterung der Wandlungspflicht (II.-III.) ist es hilfreich, die einzelnen Risikopositionen dieses Finanztitels aufzuzeigen (dazu unten III. 5). Aktienrechtliche Fragen (dazu unten IV.) betreffen zunächst das Zinszahlungsverbot gemäß § 57 AktG. Ferner sind die Vereinbarkeit mit § 221 AktG und die Zulässigkeit der Unterlegung mit bedingtem Kapital nach § 192 AktG zu klären. Vergleichsweise wird die Diskussion um naked warrants (sog. nackte Optionsscheine) herangezogen. Weitere Überlegungen betreffen die Inhaltskontrolle nach dem AGBG (V.) und die Frage, ob ein Börsentermingeschäft (VI.) sowie ein Differenzgeschäft oder Spiel (VII.) vorliegt. Folgerungen aus diesen Überlegungen betreffen schließlich die Anlageberatung der Banken (dazu unten VIII.).
Der vorliegende Text ist ein Bericht über die Ergebnisse einer qualitativen empirischen Befragung, die im Herbst 2015 in Haushalten eines Quartiers der Stadt Qingdao in China im Rahmen des BMBF-Projekts SEMIZENTRAL durchgeführt wurde. Das Gesamtprojekt umfasst die erstmalige Realisierung eines Resource Recovery Centers (RRC) als flexibles System mit Wasserrückgewinnung und Wiederverwertung in einer schnell wachsenden Stadt. Das Fachgebiet Abwassertechnik am Institut IWAR der Technischen Universität Darmstadt leitet das Projekt. Das ISOE ist Partner im Forschungsverbund und führt eine Stoffstrom- und eine damit verbundene Vulnerabilitätsanalyse für das Gebiet der Implementierung durch. In diesem Zusammenhang ist es wichtig, Einflussfaktoren des Umgangs mit Wasser und Abwasser durch die Bewohner und Bewohnerinnen zu erfassen. Thematischer Schwerpunkt der Befragung war, welche Alltagspraxis in Bezug auf Wasser und Abwasser die Bewohnerinnen und Bewohner haben und wie sich diese durch den Umzug aus einer traditionellen Dorfstruktur in ein modernes Wohnquartier verändert hat. Gleichzeitig sollte die Bekanntheit und Akzeptanz des Konzepts des RRC empirisch untersucht werden.
Vorzugsaktien ohne Stimmrecht sind ein hybrides Finanzierungsinstrument zwischen der stimmberechtigten Stammaktie auf der einen Seite und der Schuldverschreibung auf der anderen. Ebenso wie die reguläre Aktie gewährt die Vorzugsaktie ihrem Inhaber eine ergebnisabhängige Teilhabe am Residuum, während sie - insofern der Schuldverschreibung vergleichbar - zumindest im praktischen Regelfall ihrem Inhaber kein Stimmrecht und damit nicht die Möglichkeit gibt, im Rahmen der sonst den Eigenkapitalgebern vorbehaltenen Befugnisse den Einsatz des Gesellschaftsvermögens und die Verwendung seiner Erträge zu beeinflussen. Veränderungen der Verfassung der Gesellschaft, wie z. B. Unterstellung der Gesellschaft unter einen Unternehmensvertrag, Eingliederung, Verschmelzung, Vermögensübertragung oder Ausgliederung des wesentlichen Betriebsvermögens auf eine Tochter und Rückzug auf eine Holdingfunktion, Umwandlung und - demnächst - Auf- und Abspaltung wirken sich wegen der angedeuteten unterschiedlichen Struktur dieser Finanzierungsinstrumente in ganz unterschiedlicher Weise auf diese und die Stellung ihrer Inhaber aus, Die Fragen, die sich hierbei für die Vorzugsaktionäre stellen, sind bisher noch nicht zusammenhängend in einer systematischen Weise erörtert worden 2 . Erst jüngst haben gerichtliche Entscheidungen zur Eingliederung der Siemens- Nixdorf Informationssysteme AG (SNI) in die Siemens Aktiengesellschaft auf die Frage hingewiesen, ob den Vorzugsaktionären der SNI als Abfindung gemäß § 320 Abs. 5 S. 2 AktG wiederum Vorzugsaktien der Siemens AG angeboten werden müssen 3. Dasselbe Problem stellt sich nach § 305 AktG bei Abschluß eines Unternehmensvertrages und schließlich auch bei der Verschmelzung zweier Aktiengesellschaften4. Die folgenden Bemerkungen befassen sich mit der Rechtsstellung der Vorzugsaktionäre bei einer Ausgliederung nach unten und mit der Ausgabe von Vorzugsaktien in verbundenen Unternehmen. Der folgende Abschnitt (It.) behandelt die Frage, in weicher Weise eine Ausgliederung auf eine Tochter die Position der Vorzugsaktionäre der Obergesellschaft berührt, und wie diese Position vor Beeinträchtigungen durch eine solche Maßnahme geschützt ist. Im dritten Abschnitt wird die Stellung der Vorzugsaktionäre der Obergesellschaft bei Ausgabe neuer Aktien oder Geschäftsanteile in der Tochter erörtert (Ill.). Den Abschluß (IV.) bilden Überlegungen zu der Frage, wie eine Aushöhlung der Schutzvorschrift des § 139 Abs. 2 AktG5 durch Ausgabe von Vorzugsaktien in verschiedenen miteinander verbundenen Unternehmen ausgeschlossen werden kann.
Vorstandsvergütungen
(2002)
Mit umfassenden rechtlichen Regelungen zur Zulassung und Anwendung von chemischen Pflanzenschutzmitteln wurde in Deutschland schon früh versucht, diesen Risiken zu begegnen. Nicht zuletzt in den aktuellen Debatten um Pestizidrückstände in Obst und Gemüse wurde aber auch immer wieder deutlich, dass sich der Zielkonflikt zwischen Anwendungsinteressen und Schutzanforderungen rechtlich nicht vollständig lösen lässt. Im Zentrum des vom Bundesministerium für Bildung und Forschung geförderten, transdisziplinären Projekts start2 stand daher die Frage: Wie können ergänzend zu rechtlichen Maßnahmen bei der Zulassung Risiken als Folge der bestimmungsgemäßen Anwendung von Pflanzenschutzmitteln weiter und nachhaltig vermindert werden?
Die vorliegende Handreichung gibt konkrete Antworten auf diese Frage. Im Zentrum steht dabei der Ansatz, Risikominderung mehr als bisher in gemeinsamer Verantwortung aller beteiligten gesellschaftlichen Akteure zu betreiben. Damit dies gelingt, muss den einzelnen Akteuren nicht nur aufgezeigt werden, welche Möglichkeiten sie haben, durch ihr Handeln einen wirksamen Beitrag zu dieser Aufgabe zu leisten. Die Handlungsmöglichkeiten der verschiedenen Akteure sollten sich überdies zu einer wirksamen Gesamtstrategie verbinden lassen. start2 hat zu diesem Zweck drei Handlungsfelder untersucht, deren Zuschnitt sich am Lebenszyklus eines Pflanzenschutzmittels ausrichtet: „Entwicklung von Pflanzenschutzmittelwirkstoffen“, "Landwirtschaftliche Pflanzenschutzpraxis“ und „Gewässer und Trinkwasserschutz“.
Die Handreichung richtet sich an Entscheidungsträgerinnen und Entscheidungsträger in Betrieben, Organisationen, Verwaltung und Politik (siehe auch den Lesehinweis auf der folgenden Seite). Sie gibt Informationen und konkrete Empfehlungen, wo neue Handlungsmöglichkeiten ansetzen und wo in der Praxis bereits umgesetzte Maßnahmen weiterentwickelt werden können. In einzelnen Fällen sind die vorgeschlagenen Handlungsmöglichkeiten zur Risikominderung auf den besseren Umgang mit besonders gefährlichen Stoffen zugeschnitten. Im Fokus des Projekts standen dabei Pflanzenschutzmittel, die möglicherweise Gesundheitsschäden auslösen können, indem sie auf das Hormonsystem wirken...
Die vorliegende Arbeit geht unmittelbar vom Konzept der Natürlichen Morphologie aus. Am Datenbereich der dt. Substantivflexion soll die explanative Adäquatheit und Prädiktabilität des Konzepts hinsichtlich des Aufbaus und der Veränderung eines Teilflexionssystems als Ganzes überprüft und auf dieser Basis ein Strukturmodell der dt. Substantivflexion vorgeschlagen werden. Insbesondere bei der Erfassung der Gesamtstruktur des Teilflexionssystems werden dabei Probleme des zugrundegelegten theoretischen Ansatzes deutlich werden. Mit der Diskussion und der Überprüfung theoretischer Annahmen, die diese Probleme lösen können, sowie der detaillierten Analyse des Flexionsverhaltens der dt. Substantive soll ein Beitrag zur weiteren Ausformulierung des in eine allgemeine Präferenztheorie einzuordnenden theoretischen Konzepts der Natürlichen Morphologie wie auch zur germanistischen Forschung geleistet werden.
Die zunehmende Durchdringung nahezu aller Lebensbereiche der Gesellschaft mit neuen digitalen Technologien, insbesondere mit künstlicher Intelligenz, hat zur Entstehung von smarten Ordnungen geführt. Darunter werden Ordnungen verstanden, die darauf ausgerichtet sind, durch intelligentes Design und mit Hilfe algorithmischer Operationen Abweichungen von ihren Normen zu minimieren oder ganz unmöglich zu machen. Der Beitrag erläutert einige Beispiele smarter Ordnungen und zeigt auf, dass zumindest im Grundsatz zwischen einer algorithmisch optimierten, normadressatenorientierten Prävention und einer adressatensubstituierenden Präemption abweichenden Verhaltens durch digitale Technologien unterschieden werden kann. Den Schwerpunkt des Beitrags bildet sodann die Frage ob und, gegebenenfalls, in welchem Sinne, smarte Ordnungen überhaupt noch normative Ordnungen sind. Im Verlauf der Analyse zeigt sich, dass Rechtsordnungen und andere normative Ordnungen zwar das Ziel einer effektiven Durchsetzung ihrer Normen verfolgen, aber nicht das Ideal vollständiger Nicht-Abweichung. Es wird deutlich, dass es zu den wesentlichen Aspekten normativer Ordnungen gehört, dass sie an Personen adressiert sind, die sie sich als autonome und zugleich fehlbare Personen zu eigen machen müssen und dabei unvermeidlich über die faktische Freiheit zur Normabweichung verfügen. Smarte Ordnungen hingegen erfüllen diese Kriterien nicht oder nur in geringem Maße. Letztlich sind sie nur in einem schwachen Sinne normativ, soweit die in technischen Prozessen implementierte Normativität für die Betroffenen noch präsent ist. In dem Maße jedoch, wie Normativität und ihre technische Realisation sich vermischen, bis ihre erfahrbare Präsenz abnimmt, verlieren sie ihren normativen Charakter.
Das Arbeitspapier zeigt Perspektiven eines Promotionsprojektes auf, das sich mit der Reform der englischen Common Law- und Equity-Gerichtsbarkeit im Viktorianischen Zeitalter befasst. Nach einem Einblick in relevante Quellen und Literatur wird inhaltlich auf Mitglieder und Aufgaben der im Jahr 1867 eingesetzten Judicature Commission eingegangen. Anschließend werden Neuerungen aufgezeigt, die für das englische Gerichtswesen aus den in den 1870er Jahren verabschiedeten Judicature Acts folgten.
Für die These von der Priorität der Sprache gegenüber dem Denken ist in der deutschen Philosophie das Schlagwort von der Nichthintergehbarkeit der Sprache geprägt worden. Danach gibt es kein kognitives Bewußtsein, das nicht sprachlich strukturiert ist. Der auf Humboldt und Weisgerber zurückgreifenden Ansicht Karl-Otto Apels, daß die jeweilige Muttersprache als ein Apriori der Weltanschauung fungiert, hält die Erlanger Schule entgegen, daß nur das Sprachvermögen als solches, nicht die einzelne Umgangssprache unhintergehbar ist. Das Sprachvermögen wird dabei als intersubjektiv verläßliches Unterscheidungsvermögen und als Fähigkeit zur Prädikation expliziert. Wider die Erlanger Konzeption wird auf perzeptiven Unterscheidungen insistiert, die sich im Verhalten des Wahrnehmenden am zuverlässigsten äußern und die nachweislich sprachlichen Erfassungen der Erfahrungswelt vorangehen, sowie auf der genetisch wie struktural belegbaren Priorität von nichtprädikativen sprachlicllen Äußerungen (Vokativ, Ipnerativ, Modifikation) gegenüber eigentlich prädikativen Äußerungen. Auch der für die Erlanger so fundamentale Dialog entpuppt sich bei einer genetischen Analyse als ein mehrstufiges, in vorangehenden sprachlichen Formen fundiertes Phänomen. Zum Verhältnis von Sprache und Erkenntnis wird in Auswertung von vergessen gegangenen Ansätzen bei Locke und Leibniz eine Kompromiß-These vorgelegt. Relativ einfache Phänomene lassen sich sprachlos erfassen und gliedern, komplexere 'Gedankengänge ' sind sprachlich (semiotisch) vermittelt und entsprechend (von einem Grundstock universaler Gesetzmäßigkeiten abgesehen) auch je nach Sprachsystem anders determiniert. Bezüglich der vorsprachlichen Unterscheidungen lassen sich eine pragmatische Position, nach der jede Unterscheidung kontextbedingt ist, und eine eigentlich kognitive Position, nach der aus strukturalen Gründen nicht alle Unterscheidungsmöglichkeiten gleichwertig sind, auseinanderhalten. Für die zweite Position wird Seilers (1976) Hierarchie der möglichen Determinatoren eines Nomens angeführt. Orientieren sich konstruktivistisch-logische Theorien der Sprache primär am Kriterium der Einfachheit, so rekonstruktivistisch-phänomenologische Theorien am Kriterium der psychologischen Adäquatheit (gegenüber dem tatsächlichen Kode von Sprecher und Hörer); indem sie ohylo-, onto- und aktualgenetische Daten des Sprachprozesses von vorneherein mit in Betracht ziehen.
Mit der Europäischen Rechtsgeschichte verfügt die Rechtsgeschichte seit vielen Jahrzehnten über eine Tradition transnationaler rechtshistorischer Forschung. Sie wurde von deutschsprachigen Wissenschaftlern der Vor- und Nachkriegszeit geprägt – Emil Seckel, Paul Koschaker, Franz Wieacker, Helmut Coing – und stand im Kontext des westeuropäischen Nachkriegsprojekts. Noch heute bauen wir auf ihren großen Leistungen auf. Sie war, wie alle Geschichtswissenschaft, Teil eines Prozesses der gesellschaftlichen Selbstverständigung über die eigene Identität und zeichnete das Bild einer distinkten europäischen Rechtskultur.
In den letzten Jahren sind im Zuge der Diskussion um postkoloniale Perspektiven auf die Geschichte, um Transnationale und Globalgeschichte, viele Grundlagen der traditionellen Europahistoriographie kritisiert und massiv erschüttert worden. Das wirft Fragen auch an die Europäische Rechtsgeschichte auf: Welches Europabild liegt ihr zu Grunde? Auf welchen intellektuellen und konzeptionellen Grundlagen beruht sie? Wie antwortet sie auf die Vorwürfe des Eurozentrismus, des epistemischen Kolonialismus, wie auf die Forderung, Europa zu ‘provinzialisieren’? Wie definiert sie das Verhältnis der Europäischen zur Transnationalen und Globalen Rechtsgeschichte? - Diesen und ähnlichen Fragen wenden sich die folgenden Überlegungen zu. Der Schwerpunkt liegt auf einer Auseinandersetzung mit der Tradition, ihren konzeptionellen Grundlagen und deren wissenschaftshistorischem Kontext (1. Teil, 1.-6.). Aus dieser kritischen Bestandsaufnahme und den Ergebnissen der Debatte um Globalgeschichte ergeben sich Ausgangspunkte und Aufgaben einer in vielem auf den Leistungen der Disziplin aufbauenden, doch notwendigerweise auf einer anderen Konzeption beruhenden Rechtsgeschichte Europas in globalhistorischer Perspektive (2. Teil, 7.-11.).
Mit Blick auf die liberale Theorie der Internationalen Beziehungen wird die Bedeutung von Medieninformation für außenpolitische Präferenzbildungsprozesse beleuchtet. Am Beispiel der Golfkrise 1990 und des Golfkrieges 1991 zeigt sich, dass von einer "frei deliberierenden" demokratischen Öffentlichkeit in den USA nicht unbedingt die Rede sein kann. Vielmehr bediente sich die Exekutive einer ausgefeilten "Medien(kriegs)politik", um den medialen Diskurs zu dominieren und die Meinungsbildung zu steuern. Dieser Befund stellt eine Herausforderung für die liberale Theorie dar: Wenn eine demokratische Öffentlichkeit nicht über ausgewogene Informationen verfügt, kann mit Blick auf militärische Gewalteinsätze nur eingeschränkt von demokratischer Kontrolle gesprochen werden. Ein amerikanischer Präsident, der mit seiner Medienpolitik den öffentlichen Diskurs über den Einsatz militärischer Gewalt dominieren kann, verfügt offensichtlich über größere Handlungsspielräume nach innen und außen, als die liberale Theorie bisher angenommen hat.
Die Entwicklung des europäischen und deutschen Markenrechts in den letzten Jahrzehnten lässt sich auf die Kurzformel „vom Warenzeichen zum Markeneigentum“ bringen. An die Stelle einer lauterkeitsrechtlich fundierten Gewährleistung unverfälschten Wettbewerbs ist ein abstrak-tes, fungibles Eigentum an allen potentiell unterscheidungskräftigen Zeichen getreten. Im Beitrag wird dieser Paradigmenwechsel in Anlehnung an Thesen des 1944 erschienenen, wirtschaftssoziologischen Klassikers „The Great Transformation. Politische und ökonomische Ursprünge von Gesellschaften und Wirtschaftssystemen“ von Karl Polanyi gedeutet. In einem ersten Schritt wird erläutert, inwieweit Po-lanyis Ausgangsthese, wonach in einer Marktwirtschaft alle In- und Outputfaktoren kommodifiziert wer-den müssen, auf Marken und andere Kennzeichen übertragbar ist. Sodann wird Polanyis zentrale Er-kenntnis, dass die Kommodifizierung von Arbeit und Boden, aber eben auch von Zeichen als Kommu-nikationselementen kontingent, sogar fiktional und insgesamt alles andere als unproblematisch ist, für eine Kritik des gegenwärtigen Markenrechts fruchtbar gemacht. Und in der Tat ist auch in diesem Be-reich eine Entbettung des Marktes aus der Gesellschaft zu beobachten: Die Markenkommunikation wird gegenüber nicht-marktlicher Kommunikation abgeschirmt, z.B. vor Markenparodien und -kritik. Dies löst nach Polanyi Gegenbewegungen aus, die im Markenrecht bereits so stark geworden sind, dass es nicht einmal mehr ausgeschlossen erscheint, dass sie das Markenrecht auf seinen Ausgangspunkt zurück-werfen: auf das Recht gegen unlauteren Wettbewerb.
Das Kapitalmarktrecht entwickelt sich in der Berliner Republik zu einem voll integrierten Kernbestandteil des unternehmensrechtlichen Diskurses in der Rechtswissenschaft, während es in den vorausgehenden Dekaden primär eine in den normativen Grundlagen wenig durchdrungene Praktikermaterie darstellte. Das vorliegende Essay versucht eine Erklärung für diese Beobachtung zu skizzieren, die auf einem breiten Jurisdiktionen und Nationalökonomien übergreifenden Kontext beruht, der mit den Schlagworten Europäisierung und Globalisierung nur platt und unscharf umschrieben ist. Dabei geht es einerseits um eine Ausweichbewegung deutscher Unternehmen, die mit einer verstärkten Kapitalmarktorientierung eine Klemme in der Unternehmensfinanzierung zu lösen, die durch den Rückzug der vom globalen Wettbewerb erfassten Finanzindustrie aus derselben ausgelöst wurde. Auf der anderen Seite findet in der Altersvorsoge eine Abkehr von Umverteilungssystemen und eine Hinwendung zur kapitalbasierten Vorsorge statt, durch die nicht nur mehr Kapital für Investitionen statt für Konsum zur Verfügung steht, sondern auch die Interessen der Mittelschicht in vielerlei Hinsicht stärker von einer anlegerorientierten Regelung im Gesellschafts- und Kapitalmarktrecht abhängen, als von einer Arbeitnehmerorientierung im Unternehmensrecht.
Der urheberrechtlich konnotierte Begriff des Plagiats zählt zu den anerkannten Grundtatbeständen wissenschaftlichen Fehlverhaltens. Der Beitrag zeigt indes, dass das Urheberrecht und das Wissenschaftsrecht keine konzentrischen Kreise bilden, sondern unterschiedliche Zwecke mit je anderen Regelungskonzepten verfolgen. Die Übernahme urheberrechtlicher Argumentationsmuster in die Wissenschaftsethik und das Wissenschaftsrecht erschwert die Herausbildung spezifisch wissenschaftsbezogener Kriterien zur Beurteilung wissenschaftlichen Fehlverhaltens. Als Alternative entwickelt der Beitrag ein Konzept wissenschaftlicher Redlichkeit, das sich am Recht gegen unlauteren Wettbewerb orientiert. Dazu werden weitreichende teleologische und strukturelle Gemeinsamkeiten des Lauterkeitsrechts und der Regeln zu wissenschaftlichem Fehlverhalten aufgedeckt. Insbesondere verfolgen beide Materien eine funktionale Teleologie. Das Lauterkeitsrecht gewährleistet die Funktionsbedingungen des wirtschaftlichen Wettbewerbs, das Verbot wissenschaftlichen Fehlverhaltens sichert die Funktionsbedingungen und damit zugleich den Zielerreichungsgrad des offenen Wissenschaftsprozesses und des Wettbewerbs um wissenschaftliche Reputation.
Die vorstehenden Betrachtungen verfolgten das primäre Ziel, das Interesse auf einen bislang weitgehend unbeachteten Teil des Derivate-Marktes zu lenken, nämlich auf Fonds-Optionen. Auch wenn das deutsche Investmentrecht einheimischen Kapitalanlagegesellschaften sowohl für die Verwaltung des eigenen wie des Fondsvermögens die Teilhabe an diesem Marktsegment eingeschränkt, lassen die aufgezeigten Möglichkeiten (z.B. individuelle Absicherungskonzepte, limitierte Kauf-/Verkauforders sowie das Management von Investmentfondsanteil-Sondervermögen) erwarten, daß in Zukunft auch Fonds-Derivate integraler Bestandteil einer Fondsanlage werden. Soweit sich diese 12 auf Fonds-Indizes beziehen, mag der Hinweis auf komplexere Formen andeuten, daß dieser Bereich ebenfalls noch unterentwickelt ist. Auch wenn dies nicht angesprochen wurde, ist es angesichts des Volumens in Fonds investierter Mittel keineswegs abwegig, auch über den Nutzen weiterer Derivate, z.B. Fonds-Swaps, nachzudenken.
Vom Kinderzuschlag zum Kindergeldzuschlag : ein Reformvorschlag zur Bekämpfung von Kinderarmut
(2007)
Ausgehend von einer kritischen Analyse des im Zuge der Hartz IV-Reform 2005 eingeführten Kinderzuschlags wird in der vorliegenden Studie ein Reformkonzept zur Bekämpfung von Kinderarmut entwickelt und eine quantitative Abschätzung der unmittelbaren Reformwirkungen vorgenommen. Bei der Gestaltung des Reformvorschlags wurde an Grundprinzipien des allgemeinen Familienleistungsausgleichs angeknüpft. Dieser sollte unabhängig von der jeweiligen Armutsursache das Existenzminimum des Kindes nicht nur von der Steuer freistellen, sondern im Bedarfsfall durch positive Transfers – mit einem Kindergeldzuschlag – gewährleisten. Dies erfordert a) die Aufstockung des Kindergeldes durch einen Zuschlag auf die Höhe des sächlichen Existenzminimums, also um maximal 150 Euro auf 304 Euro – bei Alleinerziehenden wegen besonderer Mehrbedarfe für das erste Kind um maximal 250 Euro auf 404 Euro; b) den Verzicht auf eine zeitliche Befristung des Kindergeldzuschlags; c) die Berücksichtigung des Familieneinkommen nach Abzug eines Freibetrages in Höhe des pauschalisierten Existenzminimums der Eltern bzw. des Elternteils (1.238 Euro bzw. 860 Euro); d) eine mäßige (mit Besteuerungsgrundsätzen vereinbare) Anrechnung des zu berücksichtigenden Einkommens – wir schlagen eine Transferentzugsrate von 50% vor; e) den Verzicht auf eine Berücksichtigung des Vermögens. Wesentliche Unterschiede des Reformkonzepts gegenüber dem derzeitigen Kinderzuschlag liegen in der Ersetzung der „spitzen“ Berechnung des elterlichen Existenzminimums durch eine Pauschale und in dem Verzicht zum Einen auf eine explizite Höchsteinkommensgrenze – aus der Transferentzugsrate ergibt sich freilich eine implizite Höchsteinkommensgrenze – und zum Anderen auf eine Mindesteinkommensgrenze. Es bleibt den Eltern also unbenommen, den Kindergeldzuschlag in Anspruch zu nehmen, selbst wenn ihre Einkommensverhältnisse und individuellen Wohnkosten auf einen höheren ALG II-Anspruch schließen lassen, den sie aber nicht wahrnehmen – sei es aus Stigmatisierungsangst, aus Unwissenheit, weil sie den Verweis auf kleine Ersparnisse befürchten oder sich von dem bürokratischen Aufwand abschrecken lassen. Aus vorliegenden Schätzungen geht hervor, dass aus den genannten Grün den das Ausmaß verdeckter Armut groß ist. Dem könnte durch einen vergleichsweise unbürokratischen Kindergeldzuschlag entgegengewirkt werden, insbesondere wenn der Leistungsträger, also die Familienkasse, verpflichtet wird, bei sehr geringem Einkommen des Antragstellers diesen auf möglicherweise bestehende höhere ALG II-Ansprüche hinzuweisen. Zur Abschätzung der unmittelbaren Reformwirkungen wurde ein Mikrosimulationsmodell entwickelt und mit den Daten des Sozio-ökonomischen Panels 2006 in mehreren Varianten gerechnet. Auf der Basis einer bereinigten Stichprobe ergeben sich – je nach Reformvariante – 3 Mio. bis 3,6 Mio. potenziell begünstigte Kinder, was etwa einem Sechstel bzw. einem Fünftel aller Kinder, für die Kindergeld bezogen wird, entspricht. Unter den Kindern von Alleinerziehenden würde die Empfängerquote mit gut einem Drittel weit überdurchschnittlich ausfallen. Die fiskalischen Bruttokosten des Reformmodells würden sich auf 3,7 Mrd. bzw. 4,5 Mrd. Euro jährlich (11% bzw. 13% der derzeitigen Kindergeldausgaben) belaufen; sie würden durch einige Einsparungen beim nachrangigen Wohngeld, bei ausbildungsbedingten Transfers sowie beim ALG II – sofern einige Anspruchsberechtigte den Bezug des Kindergeldzuschlags vorziehen – etwas vermindert werden. Der durchschnittliche Zahlbetrag pro Bedarfsgemeinschaft mit Anspruch auf Kindergeldzuschlag liegt bei 190 Euro p. M., der Median bei 150 Euro. Mit dem insgesamt begrenzten Mittelaufwand kann eine erhebliche Verminderung relativer Einkommensarmut von Familien erreicht werden. Die derzeit bei etwa 18% liegende Armutsquote von Kindern, für die Kindergeld bezogen wird, würde nach Einführung des Kindergeldzuschlags um etwa vier Prozentpunkte zurückgehen, die aller Mitglieder in den Familien von 16% um drei Prozentpunkte. Mit etwa zwei Dritteln lebt der größte Teil der potenziellen Anspruchsberechtigten in erwerbstätigen Familien, und die relative stärkste Verminderung der Armutsquote ergibt sich bei Familien mit Vollzeiterwerbstätigkeit. Die mit dem Kindergeldzuschlag zu bewirkende Verminderung von Kinderarmut würde wegen der hohen Erwerbsquote von Familien also mit einem Abbau von Armut trotz Arbeit einhergehen. Besonders große Reformwirkungen zeigen sich bei den Alleinerziehenden, für welche die Simulation eine Reduzierung der derzeit bei 40% liegenden Armutsquote um etwa acht Prozentpunkte ergibt. Dennoch verbliebe die Armutsquote auch nach Einführung des Kindergeldzuschlags auf einem bedrückend hohen Niveau. Dies ist ganz überwiegend auf die große Zahl der Alleinerziehenden mit Bezug von ALG II und Sozialgeld bzw. Sozialhilfe zurückzuführen, die annahmegemäß nach der Reform im Grundsicherungsbezug verbleiben, den vorrangigen Kindergeldzuschlag also nicht in Anspruch nehmen. Bei den Paarfamilien zeigt sich – relativ gesehen – ein ähnlicher Effekt des Kindergeldzuschlags wie bei den Alleinerziehenden; die Armutsquote von derzeit 12,5% würde um ein Fünftel auf 10% zurückgehen. Dabei fällt die Reformwirkung umso größer aus, je mehr Kinder in der Familie leben. Bei den trotz Einführung des Kindergeldzuschlags unter der relativen Armutsgrenze verbleibenden Paarfamilien handelt es sich zu einem geringeren Teil als bei den Alleinerziehenden um Empfänger von nachrangigen allgemeinen Grundsicherungsleistungen und zu einem größeren Teil um Fälle, bei denen auch das um den Kindergeldzuschlag erhöhte Einkommen die Armutsgrenze nicht erreicht. Ihre Situation würde sich dennoch durch die Reform erheblich verbessern, da die relative Armutslücke im Durchschnitt von 21% auf 14% zurückgehen würde; dies entspricht einer Einkommenserhöhung von durchschnittlich 267 Euro. Abschließend bleibt darauf hinzuweisen, dass der hier vorgestellte Reformvorschlag lediglich als erster Schritt zu einer allgemeinen Grundsicherung für Kinder zu verstehen ist. Er wurde unter dem Aspekt einer schnellen Umsetzbarkeit entwickelt, sollte aber weiter reichende Überlegungen nicht verdrängen. Diese haben nicht nur das sächliche Existenzminimum des Kindes, sondern darüber hinaus den verfassungsgerichtlich festgestellten Betreuungs- und Erziehungs- oder Ausbildungsbedarf (BEA) in den Blick zu nehmen. Er wird im Rahmen der Einkommensbesteuerung durch einen Freibetrag berücksichtigt (§ 32 Abs. 6 EStG), ist in die Bemessung des hier vorgestellten Kindergeldzuschlags aber nicht eingegangen. Eine systematische Weiterentwicklung des Familienleistungsausgleichs im Steuerrecht würde die Einführung eines einheitlichen (Brutto-) Kindergeldes zur Abdeckung von sächlichem Existenzminimum und BEA erfordern, das entsprechend der Leistungsfähigkeit der Eltern, also nach dem allgemeinen Einkommensteuertarif, zu versteuern wäre (Lenze 2007).
Sowohl die Bundesregierung als auch die Opposition befassen sich derzeit im Rahmen ihrer Reformüberlegungen zum Unternehmens- und Kapitalmarktrecht u. a. auch mit dem Vollmachtstimmrecht der Kreditinstitute. Der Verfasser hat hierzu bereits seine eigenen Vorstellungen vorgetragen. Die Kritik hieran, modifizierende Vorschläge wie seither entwickelte Alternativen geben Anlaß, die eigene Auffassung zu überprüfen. Dies mag es rechtfertigen, den eigenen Standpunkt im folgenden - unter Berücksichtigung dieser Diskussion - nochmals vorzutragen, zu präzisieren und dabei insbesondere auch die Alternativvorschläge einzubeziehen und zu analysieren.
Index zu den Bildtafeln in folgenden Büchern: F. Schumm (2008): Flechten Madeiras, der Kanaren und Azoren.- 1-294, ISBN 978-300-023700-3; F. Schumm & A. Aptroot (2010): Seychelles Lichen Guide. - 1-404, ISBN 978-3-00-030254-1; F. Schumm (2011): Kalkflechten der Schäbischen Alb - ein mikroskopisch anatomischer Atlas. - 1-410, ISBN 978-3-8448-7365-8 ; A. Aptroot & F. Schumm (2011): Fruticose Roccellaceae - an anatomical-microscopical Atlas and Guide with a worldwide Key and further Notes on some crustose Roccellaceae or similar Lichens. - 1- 374, ISBN 978-3-033689-8; F. Schumm & A Aptroot (2012): A microscopical Atlas of some tropical Lichens from SE-Asia (Thailand, Cambodia, Philippines, Vietnam). - Volume 1: 1-455 (Anisomeridium-Lobaria), ISBN 978-3-8448-9258-1, Volume 2: 456-881 (Malmidea -Trypethelium). ISBN 978-3-8448-9259-9; F. Schumm & A. Aptroot (2013): Flechten Madeiras, der Kanaren und Azoren – Band 2 (Ergänzungsband): 1-457, ISBN 978-3-7322-7480-2; F. Schumm & J.A. Elix (2014): Images from Lichenes Australasici Exsiccati and of other characteristic Australasian Lichens – Volume 1: 1-665, ISBN 978-3-7386-8386-9; Volume 2: 666-1327, ISBN 978-3-7386-
8387-5
Der Index verzeichnet Bildtafeln aus folgenden Büchern: Schumm (2008) - Flechten Madeiras, der Kanaren und Azoren; Schumm & Aptroot (2010) - Seychelles Lichen Guide; Schumm (2011) - Kalkflechten der Schäbischen Alb - ein mikroskopisch anatomischer Atlas; Aptroot & Schumm (2011) - Fruticose Roccellaceae - an anatomical-microscopical Atlas and Guide with a worldwide Key and further Notes on some crustose Roccellaceae or similar Lichens; und Schumm & Aptroot (2012) - A microscopical Atlas of some tropical Lichens from SE-Asia (Thailand, Cambodia, Philippines, Vietnam), Volume 1 and Volume 2.
Die vorliegende Untersuchung zu Verwandtschaft, Körperteilen und Besitz im Tamil möchten einen kleinen Beitrag zur Erforschung der Possessivität […] leisten. Die Arbeit ist in zwei Teile gegliedert, zunächst werden possessive Strukturen und Verwandtes im determinativen Bereich untersucht, danach werden relevante prädikative Strukturen betrachtet.
Bei der Bestimmung von Eingriffsbefugnissen der BaFin jenseits der vom Gesetz vorgesehenen besonderen Kompetenzen ist Zurückhaltung geboten: Die Auffangermächtigung nach § 4 Abs. 1 Satz 3 WpÜG ist keine Allzweckwaffe nach Art der polizeilichen Generalklausel, sondern soll lediglich die besonderen Ermittlungs- und Eingriffsbefugnisse der Behörde dort ergänzen, wo diese Befugnisse auch im Zusammenwirken mit anderen Rechtsfolgen von Pflichtverstößen nicht ausreichen, um die Regelungen des Gesetzes durchzusetzen und das Gesetz dieses Sanktionsdefizit auch nicht bewusst in Kauf nimmt. In den praktisch wichtigen Fällen der Erzwingung von Pflichtangeboten, der Änderung von Angeboten nach ihrer Veröffentlichung und des Einschreitens gegen unzulässige Abwehrmaßnahmen ist danach für den Rückgriff auf § 4 Abs. 1 Satz 3 WpÜG kaum Raum. Beim Rechtsschutz Dritter gegenüber der BaFin verfolgt das Gesetz eine mittlere Linie: Amtshaftungsansprüche wegen fehlerhafter Aufsicht und Ansprüche auf Einschreiten der Behörde sind durch die Öffentlichkeitsklausel des § 4 Abs. 2 WpÜG in verfassungsrechtlich unbedenklicher Weise ausgeschlossen. Dagegen besagt § 4 Abs. 2 WpÜG nichts über die Schutzrichtung der Regelungen über das Angebotsverfahren. Die Vorschrift steht dementsprechend nicht einer Anfechtung begünstigender Verfügungen durch Dritte entgegen, soweit das Gesetz auch den Schutz ihrer Interessen bezweckt. Daher sind insbesondere Aktionäre der Zielgesellschaft befugt, mit Widerspruch und Beschwerde gegen Befreiungen nach §§ 36 und 37 WpÜG vorzugehen, die in ihr Recht auf Abgabe eines Pflichtangebotes eingreifen.
Der Beitrag bietet eine Einführung in das Thema „Vertrauen als Topos der Plattformregulierung“. Dazu wird in einem ersten Schritt das allgemeine Verhältnis zwischen dem sozialen Tatbestand „Vertrauen“ und dem Recht als das einer komplementären, wechselseitigen Wirkungsverstärkung beschrieben. Im Hinblick auf die vertrauensfördernde Rolle des Rechts wird in einem zweiten Schritt zwischen der Funktion des Vertrauens bzw. der Vertrauenswürdigkeit als Tatbestandselement einer Vorschrift und den hieran geknüpften Rechtsfolgen unterschieden. Auf der Basis dieser Grundlagen gibt der Aufsatz in einem dritten Schritt einen Überblick über Bezugnahmen auf „Vertrauen“ in der deutschen und europäischen Plattformregulierung seit 2015. Hierzu zählen sektorale Regelungen gegen Hasskriminalität und Desinformation sowie zum Schutz des Urheberrechts, die 2022 in den horizontal angelegten Digital Services Act mündeten, der ein insgesamt „vertrauenswürdiges Online-Umfeld“ gewährleisten soll. Viertens stellt der Beitrag ein abstrakt-analytisches Konzept des Vertrauens vor, das sich gut zur Analyse der aufgezählten Vertrauensbeziehungen und ihrer rechtlichen Regelungen eignet. Ein abschließender Ausblick deutet die Proliferation des Vertrauenstopos als Ausdruck einer Vertrauenskrise im digitalen Zeitalter. Die erstrebte Vertrauenswürdigkeit des Online-Umfelds bildet ein normatives Minimum, das über gesetzliche Verhaltenspflichten und Privilegien für vertrauenswürdige Akteure der Zivilgesellschaft erreicht werden soll. Ob dies gelingt und überhaupt wünschenswert ist, ist freilich offen. Die juristische Auseinandersetzung mit dem Topos des Vertrauens in der Digital- und Plattformregulierung hat gerade erst begonnen.
Differenzierte Verdienststrukturen, wie zum Beispiel qualifikatorische Verdienstunterschiede, tragen der Heterogenität am Arbeitsmarkt und somit auch einer notwendigen Flexibilität der Löhne Rechnung. Trotz dieser bedeutenden Rolle der Lohnstruktur für den Arbeitsmarkt gibt es relativ wenig detaillierte empirische Evidenz zu deren Ausgestaltung und Dynamik für Westdeutschland. In dieser Arbeit werden auf Basis der Gehalts- und Lohnstrukturerhebungen für die Jahre 1990 und 1995 sowohl die Lohndispersion innerhalb bestimmter Erwerbsgruppen („Within-Dispersion“) als auch zwischen diesen Gruppen („Between-Dispersion“) untersucht. Im Fokus der Analysen steht dabei der Vergleich zwischen den Erwerbsgruppen der vollzeitbeschäftigten Männer, der vollzeitbeschäftigten Frauen und der teilzeitbeschäftigten Frauen nach den Qualifikationsniveaus: ohne Berufsabschluss, mit Berufsabschluss und mit Hochschulabschluss. Dichteschätzungen des Bruttotageslohns zeigen, dass vollzeiterwerbstätige Männer über die gesamte Verteilung den höchsten Verdienst aufweisen. Weiterhin deuten die Dichteschätzungen darauf hin, dass die geschlechtsspezifischen Lohndifferentiale mit zunehmendem Verdienst steigen. Der selbe Sachverhalt findet sich auch für die qualifikatorischen Verdienstunterschiede. Mit steigendem Qualifikationsniveau steigt sowohl der Lohn als auch die Dispersion. Besonders ausgeprägt ist die qualifikatorische Dispersion für Männer. Eine Analyse der Lohndifferentiale sowohl innerhalb der Erwerbsgruppen als auch zwischen Männern und Frauen weist darauf hin, dass in der Gruppe der teilzeiterwerbstätigen Frauen die größte Lohndispersion vorzufinden ist und dass diese im Zeitablauf zugenommen hat. Ferner sind die Lohndifferentiale im unteren Bereich der Verteilung kleiner als im oberen. Die weitere Disaggregation nach dem Qualifikationsniveau reduziert die Within-Dispersion, wobei die Lohnunterschiede innerhalb der Erwerbsgruppen mit steigendem Qualifikationsniveau tendenziell zunehmen. Schließlich nimmt die Within-Dispersion für vollzeitbeschäftigte Hochschulabsolventinnen im Zeitablauf zu, während sie für die Teilzeitbeschäftigten sinkt. Betrachtet man die Qualifikations- und die Verteilungsdimension, zeigt sich, dass in beiden Jahren lediglich für vollzeiterwerbstätige Frauen ohne Berufsabschluss bzw. mit Hochschulabschluss das geschlechtsspezifische Differential über die Verteilung hinweg steigt. Für alle anderen Gruppen geht es über die Verteilung hinweg zurück. Die Lohndifferentiale zwischen Männern und Frauen haben im Zeitablauf abgenommen. Das mittlere Reallohnwachstum zwischen 1990 und 1995 ist für teilzeiterwerbstätige Frauen mit 6,8% am höchsten und für vollzeiterwerbstätige Männer mit 0,7% am geringsten. Die Reduktion der geschlechtsspezifischen Unterschiede im Zeitablauf ist unter Berücksichtigung des Qualifikationsniveaus noch ausgeprägter. Dies gilt vor allem für teilzeiterwerbstätige Frauen ohne Berufsabschluss und mit Hochschulabschluss. Für teilzeiterwerbstätige Frauen und für vollzeiterwerbstätige Männer findet sich im Zeitablauf eine zunehmende Lohnspreizung, während für vollzeiterwerbstätige Frauen die Verteilung konstant bleibt. Eine Zunahme der Lohnspreizung ist dabei insbesondere bei Hochschulabsolventen festzustellen, sowohl für vollzeiterwerbstätige Männer wie Frauen. Im Unterschied dazu hat für diese Erwerbsgruppen die Lohndispersion bei den Mittelqualifizierten in den 90er Jahren abgenommen.
Anders als in den indogermanischen Sprachen kann im Ungarischen nicht nur das finite Verb Personalkennzeichen tragen, sondern auch der Infinitiv, bestimmte Partizipformen, Nomina, Pronomina und einige weitere Wortbildungen. Nach der mir zur Verfügung stehenden Literatur ist bisher nicht oder nur indirekt versucht worden, das Spektrum dieser, immer suffixalen Personalmarkierung in einer Zusammenschau zu erfassen und auf seine Funktion hin zu untersuchen. So findet sich in Grammatiken und Handbüchern des Ungarischen häufig nur die allgemeine Unterscheidung von verbalen und 'possessiven' Personalendungen – eine Sicht, die allein auf der formalen Seite dieser Suffixe beruht und terminologisch eine unzulässige Verkürzung darstellt. Wie TOMPA (1968:178) richtig vermerkt, müssen die nichtverbalen Personalzeichen unter Berücksichtigung ihrer spezifischen Funktion differenziert werden. [...] Diese Arbeit wird noch einen Schritt weitergehen und jede einzelne Kombinationsmöglichkeit einer bestimmten Stammkategorie mit Personalsuffixen getrennt behandeln, wobei kein Anspruch auf Vollständigkeit erhoben werden kann. Das Ziel der Arbeit ist ein zweifaches: Zum einen geht es um eine Bestandsaufnahme der wichtigsten Verwendungen der Personalendungen und der mit ihnen gebildeten Konstruktionen ("Verteilung der Personalaffixe"), zum anderen um eine funktionale und auch formale Analyse dieses affixalen Personalausdrucks ("Leistung der Personalaffixe"). Die Arbeit gliedert sich in drei Teile: Nach einer allgemeinen Einführung in einige morphologische und phonologische Charakteristika des Ungarischen (Kap. l) gibt der umfangreichste Teil der Arbeit einen Überblick über die Bildung und Verwendung personalsuffigierter Kategorien (Kap. 2). An diese Bestandsaufnahme schließt sich eine Analyse der Leistung (und auch der Form) des affixalen Personalausdrucks an (Kap. 3.) und ein kurzes Fazit der beobachteten Phänomene (Kap. 4).
Das Paper geht der Frage nach, welche Rolle Verteilungsgerechtigkeit in Völkerrecht und Völkerrechtswissenschaft spielt. Es stellt zunächst zwei Völkerrechtsprojekte der Nachkriegszeit dar, in deren Zentrum Verteilungsfragen standen: erstens den „embedded liberalism“ Kompromiss von Bretton Woods und zweitens die von den Entwicklungsländern in den 1970er Jahren geforderte Neue Weltwirtschaftsordnung. Nach kurzer Darstellung des Scheiterns von „embedded liberalism“ und Neuer Weltwirtschaftsordnung und der Gründe für ihren Misserfolg, wendet sich das paper der Völkerrechtswissenschaft zu. Zwei zeitgenössische Projekte der Völkerrechtswissenschaft – Konstitutionalisierung des Völkerrechts und Konzeptualisierung des Völkerrechts als öffentliches Recht – werden danach befragt, welche Antworten sie auf die Krise von „welfare state and welfare world“ geben. Während sich der völkerrechtliche Konstitutionalismus nur unzureichend mit dem Verhältnis von Wirtschaft und Politik befasst, verliert die Konzeptualisierung des Völkerrechts als öffentliches Recht mit ihrem Fokus auf das Völkerrecht als Instrument der Beschränkung öffentlicher Gewalt zur Sicherung individueller Freiheit viele Verteilungsfragen gänzlich aus dem Blick. Um das Potential von Recht zur Herstellung von Verteilungsgerechtigkeit auszuloten, scheint daher eine Ausweitung der Perspektive auf transnationales Recht von Nöten. Ausgehend von Gunther Teubners gesellschaftlichem Konstitutionalismus skizziert das Paper Versuche der (transnationalen) Rechtswissenschaft, Fragen ungerechter bzw. gerechter Verteilung zu thematisieren. Das Paper schließt mit der Aufforderung, dass sich eine an Verteilungsgerechtigkeit orientierte transnationale Rechtswissenschaft folgenden Aufgaben widmen sollte: erstens der Bestimmung von Verteilungskonflikten mit Hilfe politischer Ökonomie und rechtspluralistischen Ansätzen und zweitens der Identifikation von Institutionen für einen demokratischen Experimentalismus.
Die Einschaltung einer Tochtergesellschaft im Rahmen einer Verschmelzung kann aus mehreren Gründen in Betracht gezogen werden: Erstens mag die Verschmelzung mit einer Tochter statt auf die Muttergesellschaft im Einzelfall Vorteile bieten (unten 1.). Zweitens kommt die Verschmelzung mit einer Tochter als Alternative zum bloßen Anteilserwerb in Betracht (unten 2.). In beiden genannten Fällen wird die Verschmelzung der Zielgesellschaft mit einer Tochter der am Erwerb interessierten Gesellschaft vorgenommen; die Tochter bleibt auf Dauer selbständig. Im dritten Fall dagegen wird eine Tochtergesellschaft lediglich vorläufig, als "Zwischenstation", eingeschaltet: Zunächst werden die Anteile an der Zielgesellschaft in ein Tochterunternehmen der Erwerbergesellschaft oder auch der Aktionäre der Zielgesellschaft eingebracht. Das Tochterunternehmen wird dann in einem zweiten Schritt mit der Erwerbergesellschaft verschmolzen (unten 3.). Nur eine Abwandlung dieser Gestaltung stellt es schließlich dar, wenn zwei Gesellschaften gleichzeitig oder nacheinander im Wege der Einzelverschmelzung auf die Tochtergesellschaft einer der beiden Gesellschaften oder eines dritten Unternehmens verschmolzen werden (unten 4.). Die nachfolgenden Bemerkungen gehen den Gründen für diese Gestaltungen und einigen hiermit verbundenen Rechtsfragen nach.
Versicherungsunternehmen haben bei der Auswahl ihrer Vermögensanlagen die gesetzlichen Restriktionen des Versicherungsaufsichtsgesetzes einzuhalten. Neben einer strukturierten Darstellung der zahlreichen Regulierungstatbestände werden aus Sicht der Finanzierungstheorie sowie den empirischen Verhältnissen an den Kapitalmärkten die im VAG enthaltenen Rahmenbedingungen einer kritischen Bewertung unterzogen.
Unter Berücksichtigung der implementationsanalytischen und kausalen Analysen für die Einführungsphase der Vermittlungsgutscheine kommen die Autoren zu dem Schluss, dass die Erprobungsphase dieses arbeitsmarktpolitischen Instruments fortgesetzt werden sollte. Aus der Implementationsanalyse zeigt sich, dass der Verbreitungsgrad des Instruments auch nach 27 Monaten Erprobungsphase sehr gering ist. Die kausalen Analysen beziehen sich aufgrund begrenzter Datenverfügbarkeit lediglich auf zwei Ausgabemonate ein Jahr nach Einführung des Instruments (Mai und Juni 2003) und zeigen geringe positive Beschäftigungseffekte auf der Mikro-Ebene. Ob dadurch die Kosten der Vermittlungsgutscheine gerechtfertigt sind, lässt sich derzeit noch nicht abschließend beurteilen. Anzeichen für Mitnahmeeffekte und/oder Missbrauch existieren. Auch haben erfolgreiche Vermittlungen durch Gutscheine die Beschäftigungschancen in anderen Gruppen geschmälert. Deshalb werden verschiedene Vorschläge für eine kosteneffizientere Ausgestaltung der Vermittlungsgutscheine dargestellt und diskutiert. Insbesondere wird auf die Vorschläge des Bundeskabinetts vom 01.09.2004 eingegangen.
In den letzten Jahren wurden verschiedene Modelle entwickelt, um das Ausfallrisiko von Banken unter Berücksichtigung von Portfolioeffekten zu quantifizieren. Bisher hat sich kein Ansatz als allgemein akzeptierter Standard durchsetzen können. Da die Modelle grundlegende konzeptionelle Unterschiede aufweisen und unterschiedliche empirische Inputdaten verwenden, hat die Auswahl eines Kreditrisikomodells unter Umständen einen erheblichen Einfluß auf die Kreditportfoliosteuerung der Bank. In diesem Beitrag soll deshalb geklärt werden, ob die Modelle systematisch abweichende Value-at-Risk-Werte berechnen und worin die Ursachen für auftretende Abweichungen liegen. Zunächst wird gezeigt, daß die bestehenden Kreditrisikomodelle in zwei grundlegende Klassen eingeteilt werden können: Assetwert-basierte Modelle und auf Ausfallraten basierende Modelle. Am Beispiel eines Musterportfolios von Krediten an deutsche Baufirmen werden zwei Vertreter der Modellklassen (CreditMetrics und CreditRisk+) verglichen und der Effekt der unterschiedlichen empirischen Inputparameter auf die Risikoergebnisse abgeschätzt. Die Analyse zeigt erhebliche Unterschiede zwischen den Modellen. Eine Analyse der Abweichungsursachen ergibt allerdings, daß der Grund für die großen Value-at-Risk-Unterschiede in erster Linie in den unterschiedlichen empirischen Inputdaten liegt, welche zu unterschiedlichen impliziten Korrelationsannahmen führen. Es wird gezeigt, wie die Modellparameter gewählt werden müssen, um identische Korrelationen zu erzeugen. Bei konsistenten Korrelationsannahmen stimmen die Ergebnisse beider Modelle weitgehend überein. Keywords: Credit Risk Models, credit risk correlation
Die Untersuchung wurde im Lichte der aktuellen Diskussion um die Grundlagenkrise der Juristenausbildung durchgeführt. Hierbei wird der Anspruch erhoben, die Perspektive von Promotionsstudierenden ebenfalls zu berücksichtigen. Mit einer rechtsmethodologischen Herangehensweise wird nämlich nachgewiesen, dass die analoge (bzw. entsprechende) Anwendung des § 770 Abs. 1 BGB auf sonstige Gestaltungsrechte mit dem Willen des Gesetzgebers nicht übereinstimmt. Die Konsequenzen der Ablehnung der Anwendbarkeit des § 770 Abs. 1 BGB auf sonstige Gestaltungsrechte werden ebenso besprochen wie Wertungs- und Theoriefragen in diesem Zusammenhang. Aus dieser „methodenehrlichen“ Anwendung des § 770 Abs. 1 BGB und den sich hieraus ergebenden Konsequenzen werden sodann Schlussfolgerungen für die Stärkung der Grundlagenfächer gezogen.
Das Verhältnis von Zwangsvollstreckungs- und Verfassungsrecht ist nicht nur in Deutschland ein aktuelles Thema in der zivilprozessualen, verfassungsrechtlichen und (verfahrens-) rechtspolitischen Diskussion, wie die vorliegende Themenwahl der o.g. Jahrestagung der International Association of Procedural Law (IAPL) belegt. Ein Ausschnitt aus dieser Gesamtthematik ist Gegenstand dieses Nationalberichts aus der Perspektive des deutschen (Verfahrens-) Rechts, der unter dem Generalhema „Verfassung, Grundrechte und Vollstreckungsrecht“ insbesondere das „Spannungsverhältnis“ der kollidierenden Grundrechte von Vollstreckungsschuldner und -gläubiger behandelt.
Das Working Paper bietet die zusammenfassende Stellungnahme von Prof. Volker Wieland zum Ankaufprogramm der Europäischen Zentralbank für Anleihen des öffentlichen Sektors (Public Sector Purchase Programme, PSPP) am Bundesverfassungsgericht am 30.07.2019. Dabei liegt der Schwerpunkt auf der Frage der Einordnung des PSPP als monetäre, geldpolitische Maßnahme und der Verhältnismäßigkeit des Programms und seiner Umsetzung. Ebenfalls wird kurz auf die weiteren Fragen zur Umsetzung, insbesondere Ankündigung, Begrenzung und Abstand zum Primärmarkt für Staatsanleihen eingegangen.
Vereinsrechtsreform
(2002)
Großvereine wie der ADAC – neben den Automobilclubs sind hier zum Beispiel noch die Vereine der Freien Wohlfahrtspflege (DRK, Arbeiterwohlfahrt usw.), die Technischen Verei-ne (TÜV5, DEKRA) und die Vereine der beiden Fußball-Lizenzligen6 zu nennen – entspre-chen nicht dem Leitbild des ideellen Vereins, das der Gesetzgeber bei der Schaffung des BGB-Vereinsrechts vor mehr als 100 Jahren vor Augen hatte. Zwar erfassen die §§ 21 ff. BGB dem Wortlaut nach sämtliche Vereine ungeachtet ihrer Mitgliederzahl, ihres Organisationsaufbaus und ihres Wirkungsbereichs. Doch war man sich schon zur Zeit der Entstehung des BGB darüber im klaren, daß diese Vorschriften nicht über den lokalen Kleinverein hinaus passen.
Das Immaterialgüterrecht bildet eine der ältesten und inzwischen umfangreichsten Materien des Einheitsprivatrechts. Fast alle Staaten der Erde sind Mitglieder der World Intellectual Property Organization und bekennen sich als solche zur Förderung des „geistigen Eigentums“. Allerdings ist der Rechtsschutz nach dem seinerseits universell anerkannten Territorialitätsprinzip auf das Territorium des jeweiligen Gesetzgebers beschränkt. Zu dieser geografischen Fragmentierung treten fremdenrechtliche Beschränkungen des Zugangs zum lokalen Rechtsschutz hinzu. Der Beitrag erläutert, welche Akteure die Spannung zwischen globaler Kommunikation und fragmentiertem Immaterialgüterrechtsschutz auf welche Weisen regulativ bearbeiten. Dabei wird unterschieden zwischen der Rechtsangleichung bei fortdauernder Fragmentierung, der Schaffung supranational einheitlicher Verfahren, Immaterialgüterrechte und Gerichte sowie informellen Kooperationen zwischen Privaten und Patentämtern. Die Leitfrage der Bestandsaufnahme lautet, ob all diese Phänomene im Sinne von Kropholler und David als funktionales Einheitsrecht begriffen werden können, ob es sich also um Rechtssätze handelt, bei denen die Einheitlichkeit ihrer Geltung im Interesse des unverfälschten internationalen Handels zu einem besonderen Rechtszweck erhoben wurde, oder ob man lediglich objektiv-formal eine rechtlich bindende Einheitlichkeit konstatieren kann, die primär ein anderes Ziel verfolgt, nämlich: die weltweite Stärkung des Immaterialgüterrechtsschutzes. Den Abschluss bildet eine kritische Stellungnahme zur verbreiteten Annahme, die weit fortgeschrittene Vereinheitlichung des Immaterialgüterrechts sei ein großartiger Erfolg.
Ziel dieser Präsentation (anlässlich des Seminars „Die Auswirkungen von Asset Securitisation auf die Stabilität des Finanzmarktes“ Österreichische Nationalbank (ÖNB), Wien 1. Oktober 2003) ist es, eine Verbindung zwischen Verbriefung und Finanzmarkstabilität unter Berücksichtigung veränderter Finanzintermediation herzustellen. In der folgenden Abhandlung soll nun zunächst auf die Natur der Verbriefung per se eingegangen werden, um sodann anhand theoretischer Überlegungen und empirischer Beobachtungen mögliche Quelle systemischen Risikos in der Kreditverbriefung aufzuzeigen. In diesem Fall handelt es sich um die Informationsasymmetrien und die durch Handelbarkeit von Kreditrisiko bestimmte Transaktionsstruktur („security design“), die bei regulatorischer Nichtberücksichtigung eine destabilisierende Wirkung nicht nur im Bereich der Verbriefung, sondern auch hinsichtlich der gegenseitigen Zahlungsverpflichtungen von Finanzintermediären begründen könnte.
Der deutsche Markt für Venture Capital (VC) ist trotz erfreulicher Fortschritte insbesondere in den letzten drei Jahren im Vergleich zum weltweit größten VC-Markt in den USA unterentwickelt. Venture Capital-Investitionen beliefen sich in Deutschland im Jahr 1996 auf 0,04% des Bruttoinlandsproduktes, weniger als ein Drittel des U.S.-amerikanischen Niveaus. Obwohl seither ein deutlicher Anstieg zu verzeichnen ist, hat der deutsche VC-Markt mit einem Fondsvolumen von ca. 18,6 Milliarden DM nach jüngsten Angaben nur etwa ein Achtel der Größe des amerikanischen Marktes.
Ein Value-at-Risk-Limit wird als DM-Betrag gekennzeichnet, der von den tatsächlichen Handelsverlusten innerhalb einer bestimmten Zeitdauer nur mit geringer Wahrscheinlichkeit überschritten werden darf. Da der Bankvorstand i.d.R. Jahres-Value-at-Risk-Limite beschließt, im Handelsbereich die Geschäfte aber für einen kurzfristigen - unterstellt wird ein eintägiger - Planungshorizont abgeschlossen werden, ist zu klären, wie Jahres-Limite in Tages-Limite umgerechnet und während des Jahres realisierte Gewinne und Verluste auf die Limite angerechnet werden können. Auf der Grundlage des Umrechnungsverfahrens nach der Quadratwurzel-T-Formel lassen sich drei Verfahren für die Ermittlung des Tages-Limits unterscheiden: 1. Realisierte Gewinne und Verluste werden nicht angerechnet (starres Limit). 2. Bei Verlusteintritt vermindert sich das Tages-Limit für die Restperiode, realisierte Gewinne machen Kürzungen rückgängig (Verlustbegrenzungslimit). 3. Tages-Limite werden um Gewinne und Verluste angepaßt, wodurch eine Erweiterung des Handlungsspielraumes möglich ist (dynamisches Limit). Die drei Limite werden in einem Simulationsmodell gegeneinander abgewogen, wobei unterstellt wird, ein Händler handle nur eine einzige Aktie und antizipiere in 55% der Fälle die Kursrichtung. Die Simulationsergebnisse sind bei den unterstellten Renditeprozessen (geometrische Brownsche Bewegung und reale Renditen von 77 deutschen Aktien für die Zeit vom 01.01.1974 bis 31.12.1995) weitgehend identisch. Das dynamische Limit produziert deutlich höhere durchschnittliche Ergebnisse als das starre Limit und das Verlustbegrenzungslimit. Überschreitungen des Jahres-Limits treten nur beim starren Verfahren auf, die Häufigkeit ist allerdings wesentlich geringer als die zulässige Wahrscheinlichkeit von 1 %.
Im Rahmen des Value Based Managements sollen alle Manahmen der Unternehmensfhrung auf die Steigerung des intrinsischen Marktwertes des Eigenkapitals ausgerichtet werden. Hauptanwendungsbereiche des Value Based Managements sind die Planung, Performancemessung, Managemententlohnung sowie die Bereichssteuerung. Eine konsequente shareholder-orientierte Steuerung beinhaltet eine adquate Ermittlung von Wertbeitrgen in den einzelnen Anwendungsbereichen. Hierzu dienen insbesondere absolute Wertbeitragskennzahlen in Form von Residualgewinnen. Residualgewinne sind dadurch gekennzeichnet, dass der Gewinn um eine auf das Gesamtkapital bezogene Capital bzw. Interest Charge reduziert wird. Der magebliche Gewinn sowie das Gesamtkapital ergeben sich, indem die handelsrechtlichen Gren durch mehr oder minder weitreichende Modifikationen angepasst werden. Die Berechnung der Interest Charge erfolgt entweder auf Basis eines risikoangepassten Zinssatzes oder auf Basis eines risikofreien Zinssatzes. In der Praxis finden sich zahlreiche unterschiedliche Residualgewinnkonzepte, die sich insbesondere durch die jeweils charakteristischen Modifikationen und durch den verwendeten Zinssatz zur Berechnung der Kapitalkosten unterscheiden.1) Herkmmliche Konzepte zeichnen sich dadurch aus, dass die Interest Charge auf Basis eines risikoangepassten Zinssatzes berechnet wird. Das in Velthuis (2003c) theoretisch entworfene und von der KPMG in der Praxis umgesetzte Konzept Earnings less Riskfree Interest Charge, ERIC , ist hingegen dadurch charakterisiert, dass zur Berechnung der Interest Charge ein risikofreier Zinssatz verwendet wird. Ferner werden Modifikationen nur insofern vorgenommen, als dass eine vollstndige Bercksichtigung aller Erfolgskomponenten gewhrleistet wird. Glaubt man den Vertretern herkmmlicher Konzepte, basieren diese Konzepte auf einer hinreichenden theoretischen Fundierung. Diesem Anspruch gengen solche Konzepte tatschlich jedoch nicht, sie zeichnen sich gerade durch eine mangelnde theoretische Fundierung aus.2) In Velthuis (2003c) wird verdeutlicht, dass die in der Praxis verbreitete Vorgehensweise gerade zum Ausweis von Wertbeitrgen fhrt, die inkonsistent mit der Zielsetzung der Shareholder sind. In allen Anwendungsbereichen des VBM zeigt sich nmlich aus theoretischer Sicht die Problematik der VerIm Rahmen des Value Based Managements sollen alle Maßnahmen der Unternehmensführung auf die Steigerung des intrinsischen Marktwertes des Eigenkapitals ausgerichtet werden. Hauptanwendungsbereiche des Value Based Managements sind die Planung, Performancemessung, Managemententlohnung sowie die Bereichssteuerung. Eine konsequente shareholder-orientierte Steuerung beinhaltet eine adäquate Ermittlung von Wertbeiträgen in den einzelnen Anwendungsbereichen. Hierzu dienen insbesondere absolute Wertbeitragskennzahlen in Form von Residualgewinnen. Residualgewinne sind dadurch gekennzeichnet, dass der Gewinn um eine auf das Gesamtkapital bezogene Capital bzw. Interest Charge reduziert wird. Der maßgebliche Gewinn sowie das Gesamtkapital ergeben sich, indem die handelsrechtlichen Größen durch mehr oder minder weitreichende Modifikationen angepasst werden. Die Berechnung der Interest Charge erfolgt entweder auf Basis eines risikoangepassten Zinssatzes oder auf Basis eines risikofreien Zinssatzes. In der Praxis finden sich zahlreiche unterschiedliche Residualgewinnkonzepte, die sich insbesondere durch die jeweils charakteristischen Modifikationen und durch den verwendeten Zinssatz zur Berechnung der Kapitalkosten unterscheiden.1) Herkömmliche Konzepte zeichnen sich dadurch aus, dass die Interest Charge auf Basis eines risikoangepassten Zinssatzes berechnet wird. Das in Velthuis (2003c) theoretisch entworfene und von der KPMG in der Praxis umgesetzte Konzept Earnings less Riskfree Interest Charge, ERIC Ò , ist hingegen dadurch charakterisiert, dass zur Berechnung der Interest Charge ein risikofreier Zinssatz verwendet wird. Ferner werden Modifikationen nur insofern vorgenommen, als dass eine vollständige Berücksichtigung aller Erfolgskomponenten gewährleistet wird. Glaubt man den Vertretern herkömmlicher Konzepte, basieren diese Konzepte auf einer hinreichenden theoretischen Fundierung. Diesem Anspruch genügen solche Konzepte tatsächlich jedoch nicht, sie zeichnen sich gerade durch eine mangelnde theoretische Fundierung aus.2) In Velthuis (2003c) wird verdeutlicht, dass die in der Praxis verbreitete Vorgehensweise gerade zum Ausweis von Wertbeiträgen führt, die inkonsistent mit der Zielsetzung der Shareholder sind. In allen Anwendungsbereichen des VBM zeigt sich nämlich aus theoretischer Sicht die Problematik der Verwendung eines risikoangepassten Zinssatzes zur Berechnung von Kapitalkosten: Schon die Verwendung eines risikoangepassten Kapitalkostensatzes im Rahmen der Planung kann problematisch sein. Die Verwendung risikoangepasster Kapitalkosten als Benchmark bei der Performancemessung ist sogar ganz abzulehnen, und bei der Managemententlohnung ist die Verrechnung von risikoangepassten Kapitalkosten zwingend mit Fehlanreizen verbunden. Aber auch praxisübliche Modifikationen erweisen sich als problematisch, da Erfolgskomponenten nicht bzw. nicht vollständig berücksichtigt werden. Im Gegensatz zu herkömmlichen Konzepten weist das VBM-Konzept ERIC eine tatsächliche theoretische Fundierung auf. In Velthuis (2003c) werden grundlegende theoretische und praktische Anforderungen für die einzelnen Anwendungsbereiche herausgearbeitet und es wird gezeigt, dass ein integriertes VBM-Konzept auf Basis des Residualgewinns ERIC diese Anforderungen stets erfüllt. Ziel dieses Aufsatzes ist es, die Grundkonzeption von ERIC theoretisch weiter zu entwickeln. Während in Velthuis (2003c) stets von einer sehr einfachen Idealwelt ausgegangen wird, soll hier zum einen verdeutlicht werden, wie ein erfolgreiches Value Based Management auf Basis von ERIC in komplexeren und realitätsnäheren Situationen erfolgen kann. Zum anderen gilt es, zusätzliche praktische Problembereiche zu erkennen und Lösungsmöglichkeiten aufzuzeigen. Der Aufsatz ist wie folgt aufgebaut: Zunächst wird gezeigt, wie der Residualgewinn ERIC zu berechnen ist, und es wird ein Überblick über die Anwendungsbereiche gegeben. Anschließend wird die grundlegende Entscheidungssituation für die späteren Darstellungen erörtert und es werden fundamentale Prinzipien des Value Based Managements und ihre Bedeutung für die einzelnen Anwendungsbereichen erläutert. Sodann wird für die einzelnen Bereichen des Value Based Managements, der Planung, Performancemessung, Managemententlohnung und der Bereichssteuerung gezeigt, wie ERIC anzuwenden ist, damit eine tatsächliche Shareholder-Orientierung gewährleistet wird. Die Darstellungen erfolgen dabei jeweils zunächst vor dem Hintergrund einer Idealwelt. In einem zweiten Schritt wird die Entscheidungssituation jeweils modifiziert, um der Realität ein Stück näher zu kommen.
Valenz ist eine Zeitbombe, die im Lexikon deponiert ist und in der Grammatik detoniert. Im vorliegenden Beitrag geht es um die Grundlegung einer neuen Valenztheorie, der die Aufgabe zukommt, diese Bombe so empfindlich zu konstruieren, daß sie nicht mehr entschärft werden kann. Dabei möchte ich gleich am Anfang betonen, daß die Valenztheorie – genau und nur im Sinne der obigen Metapher – eine grammatische Teiltheorie darstellt, die nicht an ein bestimmtes Grammatikmodell gebunden ist. Zwar ist die Valenztheorie m enger Verbindung mit der Dependenzgrammatik entstanden, Valenztheorie und Dependenzgrammatik haben jedoch klar unterschiedliche Gegenstände. Auf die Bestimmung dieser Gegenstände komme ich am Ende meiner Erörterungen zu sprechen (vgl. 5.). Es soll von folgenden Arbeitsdefinitionen ausgegangen werden: (I) Valenzpotenz (kurz: Valenz) ist die Potenz relationaler Lexemwörter (Lexemwort' im Sinne von Coseriu), die zu realisierende grammatische Struktur zu prädeterminieren (vgl. auch Welke 1993; zur Relationalität vgl. Lehmann 1992:437f.). Aus dieser Arbeitsdefinition folgt, (a) daß Valenz für einen Teil der grammatischen Realisierung verantwortlich ist, aber auch (b) daß Valenz bei weitem nicht für alles in der grammatischen Realisierung verantwortlich ist. Eine ganze Reihe von morphologischen, syntaktischen, semantischen und konzeptuellen Prozessen wIe z.B. Derivation (verbale Präfixbildung), Konjugationstyp, syntaktische Konversion, Serialisierung, Graduierungen der Transitivität, Determinierung, Fokussierung usw. interagiert mit der Valenz, sobald diese eine grammatische Struktur mitzuerzeugen hat (vgl. auch 3.6).
Wie in vielen anderen Bereichen unserer Gesellschaft hat das Internet auch in die Wertpapierbranche Einzug erhalten. Diesbezüglich haben die USA sowohl in tatsächlicher als auch in rechtlicher Hinsicht wieder einmal eine Vorbildfunktion inne. Dies nimmt der Verfasser zum Anlaß, um sich kritisch mit den dortigen Erfahrungen zu beschäftigen. Ferner werden USamerikanische Wertpapiervorschriften besprochen, die sich nicht auf die USA beschränken. Der Gesetzgeber hat neben den Vorschriften über die elektronische Informationsverbreitung bereits Spezialregeln aufgestellt, die alle ausländischen Anbieter betreffen, die das Internet zu Handelszwecken nutzen. Dafür ist es sogar ohne Bedeutung, ob die Anbieter überhaupt einen internationalen Handel betreiben. Die Ausführungen und Regeln betreffen zum Teil die gesamte Wertpapierbranche. Das Hauptaugenmerk des Beitrags ist aber auf Investmentfonds gerichtet. Dabei stützt sich der Verfasser auf eine Untersuchung, die er 1998/99 als „Visiting Scholar“ an der New York University durchführen konnte.
Urbane Ordnungen der (Post-)Migration : Staatsrassismus in der (neoliberalen) "Stadt der Vielfalt"
(2023)
In Städten ist die (post)migrantische Gesellschaft verortet. Obwohl Menschen mit (familiären) Migrationsgeschichten große Teile der Stadtbevölkerung stellen – bei Kindern längst in der Mehrheit –, birgt diese Vielfalt keine gleichen Rechte: Gesellschaft und Ökonomie sind von rassistischen Ordnungen geprägt und der Staat ignoriert dies oder trägt dazu bei. Mathias Rodatz zeigt am Beispiel der Stadt Frankfurt am Main, wie aktuelle städtische Vielfaltspolitiken eine andere, gleichberechtigte Stadt versprechen – und unter neoliberalen Umständen doch ins Leere laufen. Er theoretisiert sie als Politiken transnationaler Stadtbürgerschaft, deren Potenzial zu einer tatsächlichen Herausforderung des Staatsrassismus in der Stadt es noch zu realisieren gilt.
Die vorliegende Studie wählt […] einen kleinen Ausschnitt in Gestalt eines einzelnen Textes aus: Es geht um den „Schwanenritter“ Konrads von Würzburg, weil sich hier jene historisch-anthropologischen und mediengeschichtlichen Prozesse nicht nur beobachten lassen, sondern weil diese Erzählung sie selbst schon beobachtet. In Konrads kleinem, aber komplexem Text, so (...) [hofft Peter Strohschneider] im weiteren zeigen zu können, wird das Erzählen vom Körper, von seinen Darstellungssystemen und von der Schrift im Medium schriftliterarischen Erzählens in charakteristischer Weise reflexiv.
Die optimale Nutzung vorhandener Potentiale von Beschäftigten sowie die bestmögliche Unterstützung von Unternehmen bei der Entwicklung ihrer Beschäftigten sind wichtige Stellschrauben
für eine gezielte und innovative Fachkräftesicherung. Allerdings bedarf solch eine Strategie zunächst einer Transparenz, die Orientierung darüber schafft, in welchem Maße sogenannte unter- und überwertige Beschäftigung stattfindet und in welchen Branchen und Berufsgruppen dies der Fall ist.
Unterwertige Beschäftigung liegt vor, wenn der formale Berufsabschluss höher als die tatsächlich ausgeführte Tätigkeit ist. In diesen Fällen wird davon ausgegangen, dass sich noch weitere Potentiale der Beschäftigten erschließen lassen. Die Umkehrung findet sich bei der überwertigen Beschäftigung. Hier liegen die formalen Qualifikationsabschlüsse deutlich unter den Anforderungen der aktuellen Beschäftigung. Entsprechend sind Qualifizierungsprozesse notwendig, um den höheren Anforderungen gerecht werden zu können. Dabei sind innerbetriebliche, auch informelle Lernprozesse von großer Bedeutung. Neben diesen beiden Formen des vertikalen (formalen) Qualifikationsmismatches können zudem horizontale Mismatches vorliegen. Dies trifft zu, wenn Kompetenzen, häufig Softskills, nicht im Arbeitsvollzug eingesetzt werden können. Auch hier kann von noch zu erschließenden Potentialen ausgegangen werden. Auf Basis von Daten sozialversicherungspflichtig Beschäftigter ist ein Abgleich zwischen dem formalen Berufsabschluss sowie dem formalen beruflichen Anforderungsniveau möglich. Anhand des Abgleichs lässt sich formale unter- und überwertige Beschäftigung ermitteln. Einschätzungen zur Art und zum Umfang horizontaler Mismatches können derzeit auf der Basis von Primärdaten stattfinden.
In der Publikation reflektieren Forschenden aus den Sozial- und Wirtschaftswissenschaft und Medizin sowie Praktiker aus Medien und Politik den Einfluss wissenschaftlicher Expertise in Krisenzeiten. Dabei werden Unterschiede und Gemeinsamkeiten zwischen der Covid-19-Pandemie, der Finanz- und Wirtschaftskrise, der Flüchtlingskrise und der Klimakrise herausgearbeitet. Die Gespräche wurden im November/Dezember 2021 geführt.
Unsere geschützte Natur
(2003)
Die Goethe-Universität befindet sich seit einigen Jahren in einem deutlichen Wandel. Der Campus Westend wird zum Zentralcampus ausgebaut und auch personell wächst die Goethe-Universität. Fast 47.000 Studierende und mehr als 5.000 Beschäftigte (Stand Herbst 2014) studieren und arbeiten an den Campussen.
Die Goethe-Universität ist damit einer der bedeutendsten Verkehrserzeuger in Frankfurt, da nahezu täglich über 50.000 Personen ihren Studien- oder Arbeitsplatz an der Goethe-Universität erreichen müssen und auch zwischen den verschiedenen Standorten pendeln.
Das folgende Arbeitspapier befasst sich mit der Mobilität der Studierenden und der Beschäftigten der Goethe-Universität, die mittels zweier Online-Befragungen erhoben und analysiert wurden. Es werden die zentralen Erkenntnisse bezüglich der vorhandenen Mobilitätsressourcen und wohnungsnahen Mobilitätsangebote, des Verkehrsverhaltens hinsichtlich der Häufigkeit, Dauer und Länge von Wegen zu und zwischen den Campussen und der Nutzung von Verkehrsmitteln, den Einstellungen zu den verschiedenen Verkehrsmitteln und die Nutzungsbereitschaft bezüglich optionaler Mobilitätsangebote der Universität vorgestellt.
Abschließend wird ein Resümee über den durch die Universität erzeugten Verkehr gezogen und auf Basis umfassender zielgruppenspezifischer Erkenntnisse werden Vorschläge zur Entzerrung, Verlagerung und Optimierung für ein universitäres Mobilitätsmanagement entwickelt.
Die SPD-Bundestagsfraktion hat im Januar 1995 den Entwurf eines "Transparenz- und Wettbewerbsgesetzes" vorgelegt1. In ihm wird vorgeschlagen, Kreditinstituten und Versicherungen die Beteiligung an Kapitalanlagegesellschaften zu untersagen2. Ein entsprechender Vorschlag ist auf dem 61. Deutschen Juristentag in Karlsruhe gestellt, dort aber mit großer Mehrheit abgelehnt worden3. Im folgenden sollen die Argumente für und wider eine solche Regulierung auf der Grundlage empirischer Daten erörtert werden.
Das vorliegende Arbeitspapier untersucht Ungleichheit aus verschiedenen interdisziplinären Perspektiven auf Ursachen und Implikationen.
Inhaltsverzeichnis:
Philipp Harms, Claudia Landwehr, Mario Scharfbillig, Daniel Schunk: Ungleichheit: Interdisziplinäre Perspektiven auf Ursachen und Implikationen - Einleitung
Konstantin M. Wacker: Warum wir Ungleichheit verringern müssen, um globale Armut bis 2030 zu beenden
Joachim Klose: Heimatverlust als Indikator zunehmender Ungleichheit
Gunnar Otte: Bildungsforschung und Bildungsreformen
Sibylle Kalmbach: Bildungsgerechtigkeit und Ungleichheit im Hochschulbereich – am Beispiel von Stipendien
Claudia Landwehr und Oliver Tüscher: Ursachen ungleicher politischer Beteiligung
Michael Edinger: Gleicher Zugang zur Macht? Über soziale Schließungsprozesse in der Politik
Sascha Huber: Wählermobilisierung und Ungleichheit in Deutschland: Ein Feldexperiment zur Steigerung der Wahlbeteiligung bei der Landtagswahl in Baden-Württemberg 2016
Tonio Rieger: Der ganzheitliche Ansatz zur Bekämpfung von Langzeitarbeitslosigkeit
Die Empfehlung des Corporate Governance-Kodex (Ziff. 5.4.2), „dem Aufsichtsrat soll eine nach seiner Einschätzung angemessene Anzahl unabhängiger Mitglieder angehören“, wirft in der Praxis nach wie vor Fragen auf. Im Folgenden sollen einige Thesen zur Auslegung dieser Empfehlung aufgestellt werden. Eine rechtspolitische Auseinandersetzung mit ihr und Änderungsvorschläge sind an dieser Stelle nicht beabsichtigt.
Die Studie befaßt sich mit den rechtlichen Anforderungen an die Umwandlung und den Umtausch von Finanzinstrumenten. Finanzinstrumente in dem hier gemeinten Sinne sind Aktien und ausgewählte Schuldverschreibungsformen (Finanzierungsgenußrechte; Wandelschuldverschreibungen; einfache Schuldverschreibungen). Die Umwandlung oder der Umtausch von Finanzinstrumenten, zusammenfassend auch als Konversion bezeichnet, sind Verfügungsgeschäfte. Dabei werden hier nur Verfügungsgeschäfte zwischen dem Emittenten und dem Investor betrachtet. Nicht behandelt werden auch die besonderen Gestaltungsfragen und Gestaltungsmöglichkeiten, die sich für die Emittenten und Investoren bei der Umstrukturierung (Umwandlung, Konzernierung usw.) des Emittenten selbst ergeben. ....
Der Terminus "switch-reference" ist eine Schöpfung von W. Jacobson (1967). Er bezog sich auf ein Phänomen, das zunächst in den putativen Hokan-Sprachen Tonkawa, Washo und Kashaya (Southern Pomo) entdeckt worden war. Es wurde bald als areales Merkmal von Sprachen des Südwestens Nordamerikas erkannt. Es findet sich in allen Great-Basin-Sprachen sowie der westlichen Hälfte des Südwest-Phylums und in Teilen der Phyla Kalifornien, Plateau, Plains und Südost (Jacobson 1983:172). [...] Seit einigen Jahren bringt man diese Erscheinung funktional und terminologisch in Verbindung mit den sog. Medialverben der Papua-Sprachen […]. "Switch-reference" ist die oppositionelle explizite Signalisierung der Identitätsrelation zwischen dem Subjekt des Satzes, an dem die Markierung vorgenommen wird (oder dem sie unmittelbar folgt) und dem Subjekt eines kommenden Satzes (vorzugsweise des nächsten). Sie hat also kriterial eine antizipatorische Komponente. Sie tritt in verbfinalen Sprachen auf und wird deshalb meist durch Enklitika oder Suffixe verkörpert (quasi als Brücke zum folgenden Satz), die den markierten Satz subordinieren. Mit der Subjektidentität (die zwangsläufig auf die eine oder andere Weise mit den Kategorien Person und Numerus interagiert) gehen meist andere Bedeutungen einher, vorzugsweise interpropositionale. Die "switch-reference" hat logischerweise zwei Optionen: Disjunktheit, "different subject" (DS) , und Identität "same subject" (SS). "Oppositionelle Signalisierung" impliziert, daß eine Option gegenüber der anderen keinen grundlegenden Umbau der Satzstruktur erfordert. Davon unberührt bleibt die Tatsache, daß DS-Markierung merkmalhaft er ist. [...] Die Arbeit sollte sich ursprünglich auf Papua- und amerindische Sprachen erstrecken. Obwohl auch letztere ausgiebig untersucht wurden, kam die Darstellung nicht über die Verhältnisse in den Papua-Sprachen hinaus. Angesichts der Sprachenvielfalt scheint mir der Begriff Typologie im Titel noch gerechtfertigt. Ebenfalls keine Berücksichtigung fand die SV der südamerikanischen Sprachen, wofür die Untersuchungsgrundlage aber ohnehin dürftig gewesen wäre. Verwandte Phänomene in australischen, kaukasischen und afrikanischen Sprachen werden im Kapitel 8 lediglich gestreift.
Mit der im Titel dieses Aufsatzes intendierten Gegenüberstellung eines statischen Phänomens (Transitivität) und eines dynamischen (TRANSITIVIERUNG) ergibt sich im Hinblick auf die Dimension der PARTIZIPATION das Postulat einer Interaktion einer indikativischer Sehweise mit einer prädikativischen. Der indikativische Aspekt der Transitivität ist darin begründet, daß auf der Basis von u.U. verschiedenen Definitionen von Transitivität, von Sprache zu Sprache in unterschiedlicher Weise, INITIANTEN-BETROFFENEN-Konfigurationen gesetzt werden, während sich der prädikativische Aspekt (die TRANSITIVIERUNG) darin manifestiert, daß bilaterale Beziehungen etabliert, d.h. INITIANTEN-BETROFFENEN-Relationen durch morphologischen Aufwand am Verb erzeugt werden, und dies zumeist auf der Basis eines intransitiven, meist patiensorientierten Verbs. Letztlich ergibt sich ein typologischer Zusammenhang zwischen der Setzung von Intransitivität/Transitivität (als Input) und der darauf operierenden TRANSITIVIERUNG, wie er von Nichols (1982, 1984a, 1984b) angedeutet ist: Sprachen, deren Verbbestände einen stärker "intransitiven" Charakter haben, werden mehr transitivieren und umgekehrt. Statistische Aussagen über den intransitiven oder transitiven Charakter von Verbbeständen verschiedener Sprachen können dabei auf zweierlei Weise erfolgen. Zum einen kann man die Verteilung von intransitiv vs. transitiv im Rahmen eines international standardisierten Grundwortschatzes ermitteln, zum anderen kann man INITIANTEN-BETROFFENEN-Konfigurationen in eine bestimmte Anzahl von Untergruppen zerlegen, indem man Rollenschemata angibt. Wir werden im folgenden diese an Tsunoda (1981) ausgerichtete Methode erläutern, aber auch an verschiedenen Stellen unserer Ausführungen "grundwortschatzbezogene" Anmerkungen hinzufügen. Im Endeffekt resultiert auf diese Weise bei einem Vergleich verschiedener Sprachen eine intersprachliche Skala, die es erlaubt, Sprachen zwischen den Nicholsschen Polen "fundamentally intransitive" und "fundamentally transitive" einzuordnen und dabei Beobachtungen zur Ausprägung intransitivierender und transitivierender Verfahren ermöglicht. Bei der Aufarbeitung des dazu nötigen Materials wird es einerseits um die Rektion der Verben (und damit auch um Kasusmarkiertheit), andererseits um die Derivation bzw. Nicht-Derivation ("Simplizität") bestimmter Gruppen von Verben gehen. Doch zunächst einige Bemerkungen zum Phänomen "Transitivität".
Im Laufe der letzten Jahrzehnte haben in die Aspektologie und die ihr gewidmeten wissenschaftlichen Debatten zunehmend Versuche Einzug gehalten, die mit dem Ziel unternommen wurden und darauf ausgerichtet waren, die Lexik der Verben in den Mittelpunkt des Interesses zu rücken und in der Hoffnung darauf zu durchforsten, darin Hinweise aufzuspüren, die es gestatten, entsprechende verlässliche Rückschlüsse auf das von ihnen gezeitigte Aspektverhalten, d.h. die in dem jeweiligen Fall zutage tretende Art der der Imperfektiv-Perfektiv-Opposition zugrunde liegenden Bedeutung zu ziehen. In dem Bemühen, eine aspektuell relevante Verbklassifikation, d.h. eine solche, die sowohl über die Frage der aspektuellen Paarigkeit von Verben als auch über die semantischen Eigenschaften von Perfektivum und Imperfektivum innerhalb eines Aspektpaares Aufschluss erteilt, zu erstellen, musste man sich zunächst auf die Aufgabe zurückbesinnen, die die Sprache dem Aspekt zubedacht hat und die durch den morphologisch geschiedenen Gegensatz von Imperfektiva und Perfektiva wahrgenommen wird: die - von mir eindeutig ausschließlich in diesem Sinne so genannte - Aspektualität.
Im folgenden sollen Nominalphrasen im Zentralthai auf die ihnen eigentümliche Erscheinung der Numeralklassifikatoren untersucht werden. Der inzwischen allgemein üblich gewordene Terminus Klassifikator bezeichnet eine im Thai relativ umfangreiche Gruppe von Lexemen, die als Exponenten von nach inhaltlichen Merkmalen geschiedenen Nominalklassen figurieren. Doch ist es unverkennbar, daß diesen Lexemen abgesehen von ihrer lexikalischen Funktion vor allem eine wesentliche syntaktische Funktion zukommt: denn ihr Auftreten ist an ganz bestimmte Konstruktionen gebunden. Mit dieser syntaktischen Funktion wollen wir uns im folgenden befassen.