Refine
Year of publication
- 1998 (669) (remove)
Document Type
- Article (323)
- Part of Periodical (77)
- Working Paper (70)
- Part of a Book (46)
- Doctoral Thesis (37)
- Preprint (33)
- Book (17)
- diplomthesis (17)
- Review (14)
- Report (13)
Language
- German (425)
- English (203)
- Portuguese (24)
- Spanish (11)
- Multiple languages (4)
- Italian (2)
Keywords
- Deutschland (26)
- Kollisionen schwerer Ionen (9)
- Hofmannsthal, Hugo von (8)
- heavy ion collisions (8)
- Aufsatzsammlung (6)
- Deutsch (6)
- Johann Wolfgang von Goethe (6)
- Europäische Union (5)
- Schätzung (5)
- Corporate Governance (4)
Institute
- Physik (64)
- Extern (53)
- Medizin (36)
- Wirtschaftswissenschaften (30)
- Rechtswissenschaft (21)
- Präsidium (20)
- Gesellschaftswissenschaften (18)
- Informatik (14)
- Institut für Wissenschaftliche Irenik (14)
- Center for Financial Studies (CFS) (13)
Diese Arbeit befaßt sich mit der Untersuchung des Emissionsverhaltens der K+ Mesonen in Au + Au Stößen bei 1AGeV. Das Experiment wurde mit dem Kaonen-Spektrometer KaoS am Schwerionensynchrotron SIS der Gesellschaft für Schwerionenforschung GSI durchgeführt. In zahlreichen Untersuchungen relativistischer Schwerionenstöße wurde eine kollektive Bewegung der Nukleonen beobachtet, die als Fluß bezeichnet wird. In nichtzentralen Stößen wurde u. a. ein gerichteter Seitwärtsfluß der Nukleonen und Pionen in die Reaktionsebene und ein elliptischer Fluß senkrecht zur Reaktionsebene gefunden. Der Nukleonenfluß wird als hydrodynamischer Effekt aufgrund des Drucks in der Reaktionszone interpretiert, während der Fluß der Pionen als Folge der Endzustandswechselwirkung verstanden wird. In dieser Arbeit wurde die Untersuchung des Flußphänomens auf die positiv geladenen Kaonen erweitert. Die Kaonen, die ein seltsames Quark enthalten, stellen eine besonders geeignete Sonde der dichten Reaktionszone dar. Wegen der großen mittleren freien Wegläange sollten die Kaonen fast ungestört nach außen emittiert werden. Zur Untersuchung dieser Fragestellung wurden die spektralen Energieverteilungen und die azimutalen Winkelverteilungen studiert. Um diese in Abhängigkeit von der Zentralität der Schwerionenreaktion zu untersuchen, wurden Stoßparameter und Anzahl der partizipierenden Nukleonen experimentell bestimmt. Dazu wurden die mit dem Großwinkel-Hodoskop bestimmte Teilchenmultiplizität und die mit dem Kleinwinkel-Hodoskop bestimmte Ladungssumme der Projektilspektatoren benutzt. Der Nachweis der Projektilspektatoren mit dem Kleinwinkel-Hodoskop erlaubt ferner, für jedes Ereignis die Reaktionsebene einer Schwerionenreaktion zu bestimmen. Der Emissionswinkel der positiv geladenen Kaonen konnte dann in Bezug auf die Reaktionsebene untersucht werden. Die Energiespektren der Kaonen, die bei Theta CM ~ 90° und Theta QCM ~ 130° in zentralen Stößen gemessen wurden, haben einen Steigungsparameter (Temperatur) von etwa 87MeV. Die transversalen kinetischen Energiespektren bei vier verschiedenen Rapiditätsintervallen in zentralen Stößen haben einen Steigungsparameter von etwa 90MeV und keine Abweichung von einem thermischen Verhalten innerhalb der Meßgenauigkeit. Die Ausbeuten sind dagegen unterschiedlich. Bei R¨uckw ¨ artswinkel bzw. bei Targetrapidität wurde ein fast doppelt so großer Wirkungsquerschnitt wie bei Schwerpunktrapidität gemessen. Die polare Winkelverteilung der positiv geladenen Kaonen ist also nicht isotrop. In dieser Arbeit konnte zum ersten Mal der elliptische Fluß der positiv geladenen Kaonen nachgewiesen werden: K+ Mesonen werden bevorzugt senkrecht zur Reaktionsebene emittiert. Die azimutale Anisotropie ist am stärksten für periphere und semi-zentrale Stöße und im Bereich der Schwerpunktrapidität. Im Gegensatz zu den Pionen zeigt die Stärke der Anisotropie keine Abhängigkeit vom Transversalimpuls. Während im Falle der Pionen die azimutale Anisotropie auf die Abschattung durch die Spektatoren zurückgeführt wird, kann dieser Effekt die Kaonendaten nicht erklären, da die K+ Mesonen eine große mittlere freie Weglänge in Kernmaterie besitzen. Mikroskopische Transportmodellrechnungen wie RBUU und QMD können den elliptischen Fluß der Kaonen nur unter Berücksichtigung des Kaon-Nukleon-Potentials im nuklearen Medium wiedergeben [Li97, Wan98a]. Als ein anderer experimenteller Hinweis auf das KN-Potential im Medium wurde das Verschwinden des gerichteten Seitwärtsflusses der Kaonen vorhergesagt [Li95a]. Die Analyse der experimentellen Daten in einem Rapiditätsintervall von y/yStrahl = 0:2 ~ 0:8 zeigt keine in die Reaktionsebene gerichtete Flußkomponente.
Die vorliegende geologische Arbeit befaßt sich mit einem Ausschnitt des Taunus. Der Taunus ist der südöstlichste Teil des Rheinischen Schiefergebirges und liegt in etwa zwischen Koblenz, Gießen, Frankfurt und Wiesbaden (Abb. 1 und 2). Marine Flachseesedimente prägen hier das Unterdevon des Rheinischen Schiefergebirges. Durch variszische Deformation entstand überwiegend NW- bis NNW-vergenter Faltenbau. Gravitative Kräfte ließen weitere tektonische Strukturen entstehen. Tertiäre Bruchtektonik schuf Horste und Gräben....... Das bearbeitete Gebiet weist unter großflächigen quartären Schuttdecken unterdevonische Sedimente der Tonschiefer- und Feinsandsteinfraktion auf. Im Unterdevon sorgte rasche Sedimentation bei ständiger Absenkung des Rheinischen Trogs für ein flaches Meer. Im Norden des Kartiergebiets tritt eine Fossilbank mit mariner Fauna zutage. Bei der mesozoisch-tertiären Verwitterung wurden die oberflächennahen Gesteine gelockert und Vererzungen und Roterden gebildet. Taleinschnitte in die tertiäre Rumpffläche sind pleistozänen Alters. Das devonische Gestein ist anchimetamorph überprägt und zeigt eine deutliche erste Schieferung, welche von einer intensiven Glimmerneubildung begleitet ist und primär stark nordwestvergent angelegt wurde. In feinpelitischen Bereichen kann eine zweite, postkristalline Schieferung ausgebildet sein. Durch starken Schuppenbau und anhaltende laterale Einengung bei der variszischen Überprägung entstanden im Taunus sogenannte "horse structures": Es kam zu sukzessiver Aufrichtung hangender Schuppeneinheiten bei nordwestlich fortschreitender Anlage von Überschiebungsbahnen im Liegenden. Im Scheitelbereich eines so entstandenen Vergenzfächers liegt das Kartiergebiet. Achsenflächen und Hauptschieferung stehen steil bis saiger. In diesen Bereichen kam es beim Kollaps des Gebirges durch gravitative Kräfte zur Anlage von Knickbändern. Sie ersetzen Verschiebungsflächen. Vereinzelt sind sie auch mit Abschiebungen verbunden. Die am häufigsten aufgeschlossene Knickband-Schar hat nach SE abschiebenden Charakter, eine zweite zeigt NW-gerichteten Bewegungssinn. Sie sind aufgrund der gleichgerichteten vertikalen Einengung zusammengehörend bzw. konjungiert. Die Knickachsen beider Scharen tauchen mit nur wenigen Grad in Streichrichtung ab. Manchmal sind Knickbänder dieser beiden Gruppen direkt konjungiert aufgeschlossen. Möglicherweise durch Rotation, als Teil konjungierter Knickbänder oder innerhalb größerer übergeordneter Knickbänder erscheinen einige der Knickbänder aufschiebend. Eine untergeordnete, dritte Knickband-Schar deutet mit schrägabschiebendem Verschiebungssinn eine Rotation der Spannungsrichtung und möglicherweise erste Bewegungen der Idsteiner Senke an. Sie ist im Untersuchungsgebiet nur selten aufgeschlossen. Die Untersuchungen im Zuge dieser Diplomarbeit ergaben, daß die Knickbänder bevorzugt in Bereichen südvergenter Schieferung entstanden. Im Süden und südlich des Kartiergebiets weist die Schieferung häufiger Südvergenz auf, weshalb dort fast ausschließlich nach S bis SE abschiebende Knickbänder einzumessen waren. Unterschiede zwischen Messungen im Westen und Osten des Gebiets wurden nicht festgestellt. Ein weiteres Ergebnis dieser Arbeit ist eine Longitudinalstrain-Berechnung von 3,4-6,8 % für die Gesteinspartien mit Knickbändern. Die Anlage der Knickbänder wird als letzte variszische Deformation angesehen. Ihr folgten außer kleineren Abschiebungen möglicherweise noch syn- und antithetische Rotationsbewegungen einzelner Gesteinsschollen. Demnach würden sich insgesamt die Anlage der Knickbänder und die Bildung der Vergenzfächer zeitlich überschneiden. Das Einfallen der Knickachsen und auch anderer Achsen und Lineare flach nach SW, ist wahrscheinlich durch tertiäre Bruchschollentektonik bedingt. Diese Bruchtektonik gliedert das Gebirge in Schollen mit Horsten und Gräben, so z.B. die bedeutende Grabenstruktur der Idsteiner Senke. Dabei kann der Vergenzfächer trotz vertikaler Bewegung horizontal versetzt worden sein. Seine Scheitellinie verändert zur Tiefe hin die Position ("horse structures") und tritt bei einer erodierten Hochscholle versetzt zutage.
Im Rahmen der vorliegenden Arbeit wurden am Schwerionensynchrotron (SIS) der Gesellschaft für Schwerionenforschung/Darmstadt (GSI) Untersuchungen zur Produktion geladener K-Mesonen in Kohlenstoff induzierten Schwerionenreaktionen durchgeführt. Im Energiebereich von 1 bis 2 AGeV wurden dazu spektrale Verteilungen von Pionen, Kaonen und Antikaonen aus Kernreaktionen der Stoßsysteme C + C und C + Au unter verschiedenen Laborwinkelbereichen mit dem Kaon-Spektrometer (KaoS) aufgenommen. Da es sich um Kaonproduktion unterhalb der Nukleon-Nukleon-Schwelle handelt, spielen Eigenschaften der Kernmaterie eine Rolle, die Gegenstand dieser Arbeit sind. Sowohl für Kaonen als auch für Antikaonen wurde eine polare Anisotropie der Winkelverteilung festgestellt. Die unter verschiedenen Laborwinkelbereichen aufgenommenen K+- -Spektren decken im Schwerpunktsystem einen Winkelbereich von 60 Grad < Theta CM < 150 Grad ab und lassen sich gut durch eine Winkelverteilung der Form sigma inv alpha (1 + a2 cos exp 2 Theta CM) beschreiben. Im Rahmen der Meßgenauigkeit konnte keine Abhängigkeit der polaren Anisotropie von der kinetischen Energie der Kaonen und Antikaonen festgestellt werden. Es lässt sich jedoch zeigen, dass es von der Einschussenergie abhängig eine Winkeleinstellung gibt, bei der der totale Wirkungsquerschnitt vom Anisotropieparameter a2 unabhängig bestimmt werden kann, wenn die oben angegebene Parametrisierung der wahren Winkelverteilung genügt. Die Anregungsfunktion sigma K+- (E Beam) für Antikaonen ist steiler als die für Kaonen, jedoch lassen sich beide Produktionswirkungsquerschnitte als Funktion der Differenz aus der pro Nukleon normierten Gesamtenergie und der Energie an der NN-Schwelle durch sigma K alpha (mK + sqrt s - sqrt s th) beschreiben. Es konnte gezeigt werden, dass sich dieses identische Verhalten der derart auf die Excess-Energie korrigierten Kaon- und Antikaonproduktion jedoch nicht nur in den totalen Wirkungsquerschnitten, sondern auch in der Form der spektralen Verteilungen widerspiegelt. Ebenso scheinen die pro Partizipant normierten K+- -Multiplizitäten bei gleicher Excess-Energie gleichermaßen stark von der Größe des Stoßsystems abzuhängen. Das etwa um einen Faktor 10 erhöhte K-/K+-Verhältnis im Vergleich zur K+- -Produktion in Proton-Proton-Stößen konnte nicht durch triviale Mediumeffekte wie Absorption oder sequentielle Mehrfachstöße erklärt werden. Dies kann als Hinweis auf eine eventuelle Modifikation der effektiven K+- -Massen in dichter Materie verstanden werden, wie sie die theoretische Hadronenphysik auf der Basis von QCD und chiraler Störungstheorie vorhersagt. Das benutzte relativistische RBUU-Modell kann die gemessenen Kaon- und Antikaonverteilungen nur unter der Annahme solcher Massenmodifikationen erklären. Die K- -Massenmodifikation hat interessante Konsequenzen für die Astrophysik und stellt somit eine Verbindung zu einem weiteren faszinierenden Teilgebiet der modernen Physik dar. Aufgrund der K- -Massenmodifikation erwarten G. E. Brown und H. A. Bethe ein Kaonkondensat in Neutronensternen ab einer Dichte von rho ~ 3 rho 0. Dies limitiert die Masse von Neutronensternen auf etwa 1.5 M ?. Für Supernovaüberreste von mehr als 1.5 M ?. erwarten sie die Bildung von schwarzen Löchern. Für das asymmetrische Stoßsystem 12C + 197 Au kann das Schwerpunktsystem nur berechnet werden, wenn z. B. mit dem geometrischen Modell mittlere Projektil- und Targetpartizipantenanzahlen (< A Projectile part >= 6 bzw. < A Target part >= 16 ) angenommen werden. Die damit ermittelten Wirkungsquerschnitte deuten auf eine stärkere polare Anisotropie als für das 12C + 12C-System hin. Wird aus der in symmetrischen Stößen gemessenen Abhängigkeit der K+- -Produktion von der Systemgröße die Anzahl der Partizipanten im 12C + 197Au-System ermittelt, so stimmt diese für K+ mit den Vorhersagen des geometrischen Modells in etwa überein, für K- werden hingegen nur halbsoviel Partizipanten ermittelt. Dies deutet auf eine starke K- -Absorption in der Targetspektatormaterie hin. Abschließend sei noch angemerk, dass die KaoS-Kollaboration bereits weitere Messungen zur K+- -Produktion in den Stoßsystemen Ni+Ni und Au+Au sowie in asymmetrische, protoninduzierten p + A Reaktionen durchgefüuhrt hat. Nach dem innerhalb der nächsten zwei Jahre zu erwartenden Abschluss der Analyse dieser Daten liegt somit eine systematische Studie der K+- -Produktion unterhalb der NN-Schwelle vor, die einen maßgeblichen Beitrag zum Studium der Eigenschaften von Hadronen in dichter Kernmaterie und zum Verhalten von Kernmaterie unter extremen Bedingungen liefern wird.
The knowledge of the build up time of space charge compensation (SCC) and the investigation of the compensation process is of main interest for low energy beam transport of pulsed high perveance ion beams under space charge compensated conditions. To investigate experimentally the rise of compensation an LEBT system consisting of a pulsed ion source, two solenoids and a drift tube as diagnostic section has been set up. The beam potential has been measured time resolved by a residual gas ion energy analyser (RGA). A numerical simulation for the calculation of self-consistent equilibrium states of the beam plasma has been developed to determine plasma parameters which are difficult measure directly. The results of the simulation has been compared with the measured data to investigate the behavior of the compensation electrons as a function of time. The acquired data shows that the theoretical rise time of space charge compensation is by a factor of two shorter than the build up time determined experimentally. In view of description the process of SCC an interpretation of the gained results is given.
High perveance negative ion beams with low emittance are essential for several next generation particle accelerators (i. g. spallation sources like ESS [1] and SNS [2]). The extraction and transport of these beams have intrinsic difficulties different from positive ion beams. Limitation of beam current and emittance growth have to be avoided. To fulfill the requirements of those projects a detailed knowledge of the physics of beam formation the interaction of the H- with the residual gas and transport is substantial. A compact cesium free H- volume source delivering a low energy high perveance beam (6.5 keV, 2.3 mA, perveance K= 0.0034) has been built to study the fundamental physics of beam transport and will be integrated into the existing LEBT section in the near future. First measurements of the interaction between the ion beam and the residual gas will be presented together with the experimental set up and preliminary results.
For investigation of space charge compensation process due to residual gas ionization and the experimentally study of the rise of compensation, a Low Energy Beam Transport (LEBT) system consisting of an ion source, two solenoids, a decompensation electrode to generate a pulsed decompensated ion beam and a diagnostic section was set up. The potentials at the beam axis and the beam edge were ascertained from time resolved measurements by a residual gas ion energy analyzer. A numerical simulation of self-consistent equilibrium states of the beam plasma has been developed to determine plasma parameters which are difficult to measure directly. The temporal development of the kinetic and potential energy of the compensation electrons has been analyzed by using the numerically gained results of the simulation. To investigate the compensation process the distribution and the losses of the compensation electrons were studied as a function of time. The acquired data show that the theoretical estimated rise time of space charge compensation neglecting electron losses is shorter than the build up time determined experimentally. To describe the process of space charge compensation an interpretation of the achieved results is given.
High perveance negative ion beams with low emittance are essential for several next generation particle accelerators (i. g. spallation sources like ESS [1] and SNS [2]). The extraction and transport of these beams have intrinsic difficulties different from positive ion beams. Limitation of beam current and emittance growth have to be avoided. To fulfill the requirements of those projects a detailed knowledge of the physics of beam formation the interaction of the H- with the residual gas and transport is substantial. A compact cesium free H- volume source delivering a low energy high perveance beam (6.5 keV, 2.3 mA, perveance K= 0.0034) has been built to study the fundamental physics of beam transport and will be integrated into the existing LEBT section in the near future. First measurements of the interaction between the ion beam and the residual gas will be presented together with the experimental set up and preliminary results.
Beim zentralen Stoß zweier ultrarelativistischer Schwerionen wird ein Zustand extremer Dichte und Temperatur erzeugt, der die Bildung des postulierten Quark-Gluon-Plasmas ermöglichen sollte. Diese neue Phase von Kernmaterie zeichnet sich dadurch aus, daß Quarks und Gluonen ohne den unter Normalbedingungen herrschenden Einschluß in Hadronen frei beweglich sind. Das Experiment NA49 am CERN SPS untersucht Kollisionen von 208Pb-Kernen. Dazu wird ein Bleistrahl mit einer Energie von 158 GeV/Nukleon auf ein im Laborsystem ruhendes Bleitarget geschossen. Das Detektorsystem ist auf den Nachweis des hadronischen Endzustands der Reaktion spezialisiert und erlaubt die Messung von mehr als 60% der etwa 2000 produzierten Hadronen. Diese große Zahl von meßbaren Teilchen macht die Untersuchung von Spektren einzelner Ereignisse möglich, die mit dem über alle Ereignisse gemittelten Spektrum verglichen werden können. Damit will man Fluktuationen von Ereignis zu Ereignis, sogenannte Einzelereignisfluktuationen, nachweisen. Um eine von der Unterteilung der Spektren in Bins unabhängige Untersuchung durchführen zu können, wurden die Einzelverteilungen mit Hilfe von Wavelettransformationen in eine Vielskalendarstellung überführt. Durch die anschließende Berechnung von faktoriellen Momenten der Waveletkoeffizienten war daher eine Korrelationsanalyse auf verschiedenen Skalen möglich. Es wurden breit angelegte Simulationen durchgeführt, die quantitative Aussagen über das Verhalten der faktoriellen Waveletmomente bei verschiedenen Arten der Eingangsverteilungen - als Beispiel seien hier flach- und gaußverteilte Spektren genannt - möglich machten. Die Multiplizitätsabhängigkeit der Verteilungsbreite der faktoriellen Waveletmomente der Ordnung q von Ereignissen mit gleichverteilten Einträgen ergab sich so zu einer Gesetzmäßigkeit von der Form sigma q(m) ~ m exp (-q/2). Die Untersuchungen der experimentell erhaltenen p-Spektren zeigten im Rahmen der statistischen Fehler auf keiner Skala eine signifikante Abweichung von den aus Simulationen mit rein zufälligen Einträgen erhaltenen Ergebnissen. Im Vergleich mit Simulationsrechnungen wurde eine obere Grenze für das Auftreten lokaler nichtstatistischer Fluktuationen gesetzt. Solche Fluktuationen werden z.B. in DCC-Modellen vorhergesagt. Die in der Analyse der Waveletmomente festgestellte Abwesenheit lokaler Fluktuationen steht in qualitativer Übereinstimmung mit der Analyse globaler Einzelereignisvariablen (z.B. <p-i->), die ebenfalls auf ein System mit minimalem Korrelationsinhalt hinweisen.
Die Stoßparameterbestimmung, an den zur Zeit im Bau befindlichen bzw. geplanten Schwerionen-Collidern RHIC und LHC ist nicht mehr wie bei Experimenten mit festem Target über die Messung der Summe aller Spektatoren möglich. Am einfachsten sind die neutralen Spektatoren (Neutronen) nachzuweisen. Diese enden bei RHIC jedoch in einem Bereich zwischen den zwei Strahlrohren, der die Größe eines Detektors auf 10 cm Breite und 130 cm Länge beschränkt, was im Vergleich zu der Breite herkömmlicher Kalorimeter, die zur Messung von Spektatoren eingesetzt werden, sehr klein ist. Die Anzahl neutraler Spektatoren kann über deren Gesamtenergie bestimmt werden, da sie im wesentlichen den Strahlimpuls behalten. Am RHIC wird zu beiden Seiten der vier Wechselwirkungszonen je ein Kalorimeter zur Messung der neutralen Spektatoren installiert(d.h. insgesamt 8 Kalorimeter). Diese Kalormeter werden aus Wolfram bestehen und eine Länge von 6 hadronischen Wechselwirkungslängen haben. Zusätzlich sollen mit diesen Detektoren einzelne Neutronen aus Riesenresonanz-Abregungen gemessen werden. Über die Rate der Koinzidenz dieser einzelnen Neutronen auf beiden Seiten der Wechselwirkungszone soll die Luminosität des Beschleunigers bestimmt werden. An die Detektoren wurde in erster Line die Forderung nach einer Energieauflösung von ca 20% gestellt, um das Signal der einzelnen Neutronen vom Untergrund trennen zu können. Für die Messung der neutralen Spektatoren, deren erwartete Anzahl im Bereich von ~ 10 - 40 liegt, ist die Energieauflösung nicht so kritisch. Fluktuationen in der Signalhöhe des Detektors werden durch die Messung mehrerer Neutronen zum Teil kompensiert, die Energieauflösung skaliert mit der Anzahl der Neutronen Nn wie 1/sqrt(Nn). Weiterhin wurde die Forderung einer Zeitauflösung theta < 300 ps gestellt. Dies ist zum einen nötig, um bei der Messung der korrelierten Emission einzelner Neutronen zur Luminositätsbestimmung zufällige Koinzidenzen zu vermeiden. Weiterhin kann der Ort der Wechselwirkung über eine Laufzeitmessung der Spektatoren zu beiden Seiten des Wechselwirkungspunktes auf einige cm genau bestimmt werden. Eine neue Kalorimeter-Bauform, das Cherenkov-Licht-Kalorimeter, ermöglicht es hadronische Kalorimeter mit geringen lateralen Ausmaßen zu konstruieren, da nur der zentrale Teil des hadronischen Schauers zum Signal beiträgt. Cherenkov-Licht-Kalorimeter bestehen aus einem Absorbermaterial und darin eingebrachten Lichtleitern, in denen relativistische geladene Teilchen des Schauers Cherenkov-Strahlung erzeugen. Es wurden zwei Prototypen aus Kupfer bzw. Wolfram mit PMMA-Lichtleitern am SPS (CERN) im 100 GeV/c- und 158 GeV/c-Protonstrahl getestet. Beide Prototypen haben eine Länge von 8 hadronischen Wechselwirkungslängen Lambda I und einen Querschnitt von 10 x 10 cm*cm. Das Kupferkalorimeter ist longitudinal in 8 Module zu je a Lambda I Länge unterteilt, das Wolframkalorimeter besteht aus 4 Modulen von je 2 Lambda I Länge. Die Lichtleiter laufen bei beiden Prototypen unter 45 Grad relativ zur Strahlachse. In früheren Untersuchungen von Gorodetzky et al. wurde festgestellt, daß in dieser Anordnung, das maximale Signal erzeugt wird. Die Energieauflösung des Kupferkalorimeters beträgt 21.8 +- 0,5% RMS/E bei 100 GeV/c Strahlimpuls. Das Wolframkalorimeter hatte im 100 GeV/c-Protonstrahl eine Energieauflösung von 20.5 +- 0.5% RMS/E. Bei beiden Prototypen wurde eine Zeitauflösung von theta < 200 ps gemessen.
Englische Fassung: Contracting Worlds: Invoking Discourse Rights in Private Governance Regimes (Annual Lecture Edinburgh 1997) Social and Legal Studies 9, 2000, 399-417. Italienische Fassung: Mondi contrattuali. Discourse rights nel diritto privato. In: Gunther Teubner, Diritto policontesturale: Prospettive giuridiche della pluralizzazione dei mondi sociali. La città del sole, Neapel 1999, 113-142. Portugiesische Fassung: Mundos contratuais: o direito na fragmentacao de regimes de private governance. In: Gunther Teubner, Direito, Sistema, Policontexturalidade, Editora Unimep, Piracicaba Sao Paolo, Brasil 2005, 269-298.
Modalität in der Musik Ruggiero Giovannellis (ca. 1555 - 1625) : zur Geschichte der Tonarten um 1600
(1998)
Die Arbeit untersucht am Beispiel der Kompositionen des Palestrinaschülers Ruggiero Giovannelli die Entwicklung der Kompositionstechnik um 1600 in Italien. Im Zentrum steht die Frage der Tonarten, insbesondere der Entwicklung der Modalität am Übergang von prima zur seconda prattica. Die offenkundige Diskrepanz zwischen der Bedeutung der Modi in der Musik um 1600 und der nachgerückten Bedeutung, die ihnen in wissenschaftlichen Arbeiten zuerkannt wird, ist der Ausgangspunkt, um am Beispiel Ruggiero Giovannellis ein Analysemodell für modal begründete Musik an ausgewählten Werken zu erproben. Zugleich wird eine historische Perspektive modaler Änderungen in einer Zeit beschleunigten musikalischen Wandels aufgezeigt. In detaillierten Analysen wird gezeigt, inwieweit sich in der Musik Giovannellis die satztechnische Tradition der römischen Schule in ihrer modalen Anlage an die Erfordernisse der affektgerichteten Monodie angepasst hat. Auf der Grundlage der theoretischen Arbeiten Bernhard Meiers wird gezeigt, wie Modalität als satztechnische Grundlage in zeitlicher, regionaler und individueller Ausprägung in der Musik um 1600 konkret realisiert wird. Die Arbeit zeigt die Möglichkeiten und Grenzen der Herausforderungen der Neuerungen des Stile moderno an die modalen Grundlagen der Musik, welche sich den neuen satztechnischen Erfordernissen nur begrenzt anpassen konnte. Unter diesem Aspekt einer Entwicklungsgeschichte der Modalität eignet sich Giovannelli als Anschauungsobjekt in vielfältiger Perspektive. Er war Kapellmeister und Sänger an den wichtigsten kirchlichen Institutionen Roms und gleichzeitig in vielfältigem Kontakt mit weltlichen Kreisen. Sein Œuvre umfasst die zentralen weltlichen und geistlichen Gattungen und Stile seiner Zeit: unterschiedlich besetzte Madrigale, Villanellen, Kanzonetten, Motetten und Messen, Mehrchörigkeit findet sich neben generalbassbegleiteter Monodie. Durch seine enge Bindung an Palestrina sowie durch ausgedehnte Aufenthalte in Nord¬italien war er mit allen zeitgenössischen Stilen vertraut. Eine weiterer Aspekt der Arbeit befasst sich mit der Frage, inwieweit der Prozess der Autonomisierung des textlichen Affektgehalts im strengen Satz und die Integration neuer stilistischer Elemente einen Einfluss der römischen Schule auf die Kompositionstechnik in Norditalien (greifbar etwa an der Entwicklung der Mehrchörigkeit in Venedig) gehabt hat. In der Zeit eines beschleunigten historischen Wandels wirkte Ruggiero Giovannelli als behutsamer Erneuerer des Überlieferten. Während er die traditionellen Gattungen Madrigal und Motette auf der Basis der bestehenden musiktheoretischen Maxime weiterentwickelte, brachen andernorts Komponisten radikaler und nachhaltiger mit den bis dahin gültigen Grundlagen der musikalischen Komposition. Ruggiero Giovannelli stand für einen kurzen historischen Augenblick im Rampenlicht dieses Wandlungsprozesses. Er gestaltete die Reform der auf dem Höhepunkt ihrer Entwicklung angekommenen Gattung Madrigal mit, indem er das Moment des Klanglichen und des Linear-melodischen auf der Basis des Kontrapunkts neu interpretierte. Neben der Verwendung eingängiger, von den Zeitgenossen mit dem Prädikat der Leichtigkeit belegten Soggetti war es vor allem das Schaffen formaler Bezüge, die Verwendung von aus populären Gattungen wie Kanzonette und Villanella übernommener Elemente und das Einfügen von durch ihn häufig verwendeter musikalischer Topoi in die unterschiedliche Werke, womit Giovannelli den Geschmack seiner Zeit traf. In seinen Motetten differenziert Giovannelli deutlich nach Besetzung und Aufführungsanlass. Klanglich opulenter, homophon konzipierter Mehrchörigkeit stehen streng kontrapunktisch strukturierte Kompositionen gegenüber. Allen geistlichen Werken liegt jedoch das unmodifizierte Regelwerk der Modi zugrunde, deren Gültigkeit in der auch schon bei Palestrina angewendeten Form von Giovannelli niemals in Frage gestellt wird. Giovannellis Musik ist immer modal konzipiert, wobei sich der Modus traditionell in der Gestaltung der Soggetti und der formalen Anlage einer Komposition ausdrückt. So liegen die Veränderungen gegenüber seinen Vorgängern im Detail. Die Einbindung des modalen Spiels in ein formales Gesamtkonzept ist eines davon, die Verwendung der Modi und der mit ihnen verbundenen Klanglage nach den Anforderungen der Besetzung ein anderes. Die Arbeit umfasst neben dem Textteil ein vollständiges Werkverzeichnis mit Quellenangaben sowie druckfähige Übertragungen der meisten Werke Giovannellis (4 Bände).
Gitter sind diskrete, additive Untergruppen des IRm, ein linear unabhängiges Erzeugendensystem eines Gitters heißt Gitterbasis. Die Anzahl der Basisvektoren eines Gitters ist eindeutig bestimmt und heißt Rang des Gitters. Zu jedem Gitter vom Rang n gibt es mehrere Gitterbasen, die man alle erhält, indem man eine Basismatrix B = [b1, · · · , bn] von rechts mit allen Matrizen aus der Gruppe GLn(ZZ) multipliziert. Eine wichtige Fragestellung der Gittertheorie ist es, zu einem gegebenen Gitter einen kürzesten, vom Nullvektor verschiedenen Gittervektor zu finden. Dieses Problem heißt das kürzeste Gittervektorproblem . Ein dazu verwandtes Problem ist das "nächste Gittervektorproblem", das zu einem beliebigen Vektor x aus IRm einen Gittervektor sucht, dessen Abstand zu x minimal ist. Aus dem "kürzesten Gittervektorproblem" entwickelte sich die Gitterbasenreduktion, deren Ziel es ist, eine gegebene Gitterbasis in eine Gitterbasis zu transformieren, deren Vektoren bzgl. der Euklidischen Norm kurz und möglichst orthogonal zueinander sind. Wichtig für die Güte einer Reduktion ist der Begriff der sukzessiven Minima ¸1(L), · · · , ¸n(L) eines Gitters L. Dabei ist ¸i(L) die kleinste reelle Zahl r > 0, für die es i linear unabhängige Vektoren cj 2 L gibt mit kcjk · r für j = 1, · · · , i. Man versucht, für ein Gitter L eine Gitterbasis b1, · · · , bn zu finden, bei der die Größe kbik / ¸i(L) für i = 1, · · · , n möglichst klein ist. Für Gitter vom Rang 2 liefert das Gauß'sche Reduktionsverfahren eine Gitterbasis mit kbik = ¸i(L) für i = 1, 2. Eine Verallgemeinerung der Gauß-Reduktion auf Gitter mit beliebigem Rang ist die im Jahre 1982 von Lenstra, Lenstra, Lovasz vorgeschlagene L3-Reduktion einer Gitterbasis, deren Laufzeit polynomiell in der Bitlänge der Eingabe ist. L3-reduzierte Gitterbasen approximieren die sukzessiven Minima bis auf einen (im Rang des Gitters) exponentiellen Faktor. Die vorliegende Arbeit besteht aus zwei Teilen. Im ersten Teil (Kapitel 1-6) wird ein neues Reduktionskonzept von M. Seysen aus der Arbeit "A Measure for the Non-Orthogonality of a Lattice Basis" behandelt und im zweiten Teil (Kapitel 7) ein aktuelles Ergebnis von M. Ajtai über die Faktorisierung ganzer Zahlen aus "The Shortest Vector Problem in L2 is NP-hard for Randomized Reductions"[2]. Seysen führte in [13] zu einer gegebenen Gitterbasis b1, · · · , bn die Größe ¾(A) ein, die nur von den Einträgen der zugehörigen Gram-Matrix A = [b1, · · · , bn]T · [b1, · · · , bn] und der Inversen A 1 abhängt. Sie hat die Eigenschaft, daß für jede Gitterbasis b1, · · · , bn mit Gram-Matrix A gilt, daß ¾(A) ¸ 1, wobei die Gleichheit genau dann gilt, wenn b1, · · · , bn orthogonal ist. Aus dieser Defintion ergibt sich folgender Reduktionsbegriff: Eine Gitterbasis b1, · · · , bn mit Gram-Matrix A heißt genau dann ¿ -reduziert, wenn ¾(A) minimal für alle Basen des Gitters ist. Der wesentliche Unterschied der ¿-Reduktion zur L3-Reduktion ist, daß die Größe ¾(A) unabhängig von der Reihenfolge der Basisvektoren ist, so daß eine ¿ -reduzierte Gitterbasis bei beliebiger Permutation der Basisvektoren ¿ -reduziert bleibt. Die ¿-Reduktion reduziert also im Gegensatz zur L3-Reduktion die Basisvektoren gleichmäßig. Seysen zeigte, daß man zu jedem Gitter vom Rang n eine Gitterbasis mit Gram-Matrix A findet, so daß ¾(A) durch eO((ln n)2) beschränkt ist. Daraus läßt sich ableiten, daß ¿ -reduzierte Gitterbasen eines Gitters vom Rang n die sukzessiven Minima bis auf den Faktor eO((ln n)2) approximieren. Da es sich bei der ¿-Reduktion um einen sehr starken Reduktionsbegriff handelt, für den es schwer ist, einen effizienten Algorithmus zu finden, definiert man folgenden schwächeren Reduktionsbegriff: b1, · · · , bn heißt genau dann ¿2-reduziert, wenn keine Basistransformation der Form bj := bj +k · bi mit 1 · i 6= j · n und k 2 ZZ die Gr¨oße ¾(A) erniedrigt. Für n = 2 entspricht die ¿-Reduktion sowohl der ¿2- Reduktion als auch der Gauß-Reduktion. Für die ¿2-Reduktion findet man einen effizienten Algorithmus. Wendet man diesen Algorithmus auf Rucksackprobleme an, so ergibt sich, daß durch einen Algorithmus, bestehend aus ¿2-Reduktion und anschließender L3-Reduktion, bei großer Dichte und bei kleiner Dimension wesentlich mehr Rucksackprobleme gelöst werden als durch den L3-Algorithmus. Die Faktorisierung großer ganzer Zahlen ist ein fundamentales Problem mit großer kryptographischer Bedeutung. Schnorr stellte in [11] erstmals einen Zusammenhang zwischen Gitterbasenreduktion und Faktorisierung her, indem er das Faktorisieren ganzer Zahlen auf das "nächste Gittervektorproblem in der Eins-Norm" zurückführte. Adleman führte in [1] das Faktorisieren ganzer Zahlen sogar auf das "kürzeste Gittervektorproblem in der Euklidischen Norm" zurück, allerdings unter zahlentheoretischen Annahmen. In [2] stellte Ajtai ein neues Ergebnis vor, in dem er das Faktorisieren ganzer Zahlen auf das "kürzeste Gittervektorproblem in der Euklidischen Norm" ohne zusätzliche Annahmen zurückführte.
A und B möchten digitale Unterschriften auf faire Weise austauschen, d.h. A soll genau dann eine Unterschrift von B erhalten, wenn B eine Unterschrift von A erhält. Der triviale Ansatz zum Austausch zweier Unterschriften, daß A seine Unterschrift an B sendet und dann B seine Unterschrift an A schickt, ist nicht fair, da B nach Erhalt der Unterschrift von A das Protokoll vorzeitig beenden oder eine ungültige Unterschrift senden kann. Bei den bekannten praktikablen Protokollen zum fairen Austausch unterteilen die Teilnehmer die Unterschriften in kleine Blöcke aus wenigen Bits und tauschen die Blöcke dann schrittweise aus. Diese Protokolle garantieren einerseits, daß man sofort überprüfen kann, ob ein erhaltener Block korrekt ist. Andererseits geben die bereits ausgetauschten Blöcke so wenig wie möglich über den restlichen Teil der Unterschrift preis. Versucht in diesem Fall ein Teilnehmer zu betrügen, indem er beispielsweise einen falschen Wert sendet, so kann der andere Teilnehmer dies unmittelbar bemerken und stoppen. Da die noch nicht ausgetauschten Blöcke fast nichts über den übrigen Teil der Unterschrift preisgeben, hat der Betrüger höchstens einen Block mehr als der ehrliche Teilnehmer erhalten. Ist die Blockgröße hinreichend klein, kann der ehrliche Teilnehmer den Nachteil durch Raten bzw. Probieren ausgleichen. In dieser Diplomarbeit entwickeln wir Protokolle zum fairen Austausch sogenannter Diskreter- Logarithmus-Unterschriften. Die bekannten praktikablen Protokolle zum Austausch dieses Unterschriftentyps verwenden als Sicherheitsvoraussetzung die Faktorisierungsannahme. Im Unterschied dazu beruht die Sicherheit unseres Austauschprotokolls auf der Diskreten- Logarithmus-Annahme und damit auf der des Unterschriftenverfahrens. Ferner erlauben unsere Protokoll die Herausgabe der Blöcke in beliebiger, auch vom Protokollverlauf abhängiger Reihenfolge, während die Reihenfolge bei den bisherigen Protokollen von vornherein festgelegt ist.
In discussing final status issues, Palestinians and Israelis approach the question of the refugees and the right of return from radically different perspectives. The Palestinian narrative maintains that the Zionists forcibly expelled the Arab refugees in 1948. The Palestinians insist on the right of the refugees to return to their homes or, for those who choose not to do so, to accept compensation. And they demand that Israel unilaterally acknowledge its complete moral responsibility for the injustice of the refugees’ expulsion. In contrast, the Israeli narrative rejects the refugees’ right of return. Israel argues that it was the Arabs who caused the Palestinian refugee problem, by rejecting the creation of the State of Israel and declaring war upon it—a war which, like most wars, created refugee problems, including a Jewish one. Israel sees the return of Palestinian refugees as an existential threat, insofar as it would undermine the Jewish character and the viability of the state. The two sides’ traditional solutions make no attempt to reconcile these opposing narratives. Yet such an attempt is vital if the issue is to be engaged. Hence the Joint Working Group on Israeli–Palestinian Relations developed two compromise solutions. They narrow the gap between the positions, but do not fully reconcile them. The compromise solution espoused by the Palestinian members of the Joint Working Group would insist that Israel acknowledge both its responsibility for creating the refugee problem and the individual moral right of Palestinian refugees to return. But it recognizes that, in view of the changed situation of the refugees over 50 years, and taking into account Israel’s constraints, the return of only a limited number would be feasible. Israel would pay both individual and collective compensation. The Palestinians’ case for an Israeli withdrawal to the 1967 borders would be strengthened as a result of their willingness to absorb the refugees in the Palestinian state. Under the compromise solution proposed by the Israeli members of the Joint Working Group, Israel would acknowledge that it shares, with the other parties to the 1948 war, practical, but not moral, responsibility for the suffering of the refugees, and that rectification of their plight is a central goal of the peace process. Israel would accept repatriation of tens of thousands of refugees under its family reunification program. Israel would pay collective compensation to the Palestinian state, paralleled by Arab State compensation for Jewish refugees from 1948. In seeking to further reconcile these two compromise solutions, we note that they reflect a large measure of agreement between Palestinians and Israelis: that Israel had a historic role in the events that created the refugee issue; that a massive exercise of the right of return is unrealizable, and “return”/family reunification will be limited; that a larger number of Palestinians will “return” to the Palestinian state; that some resettlement will take place in host states, primarily Jordan; that Israel will pay some form of compensation; and that closing the file on the refugee issue means the dismantling of the entire international apparatus that has sustained the refugees—camps, UNRWA, etc. But there remain significant gaps between the two sides’ compromise proposals as well. These concern the nature of Israeli acknowledgement of Palestinian suffering and the responsibility for it; the nature and number of “return”/family reunification; the nature and size of compensation, and its linkage to compensation for Jewish refugees from 1948; and the size of “return” to the Palestinian state. In order to negotiate an agreed solution that bridges these remaining gaps, Israelis and Palestinians will have to develop the mutual trust required to further accommodate each other’s narratives. They will also, inevitably, have to factor the refugee/right of return issue into the broader fabric of tradeoffs and compromises that will characterize a comprehensive solution to the conflict. This will involve additional parties—primarily the refugee host countries—as well as related substantive issues, such as borders.
Der Eisenbahngüterverkehr verliert weiterhin Marktanteile an den Straßengüterverkehr. Dies ist nicht nur eine Folge der Tatsache, daß sich die geringeren externen Effekte der Bahn nicht genügend "auszahlen", die Bahn weist bei ihrer jetzigen Betriebsweise auch systembedingte Nachteile auf. Für den immer bedeutsameren Transport von Nicht-Massengütern in kleinen Mengen ist wohl der LKW als wesentlich kleinere Einheit als der Eisenbahnzug geeigneter. Eine Möglichkeit für die Bahn, diesem Problem zu begegnen, besteht in der Einführung einer neuen Transporttechnologie, die auf einzeln angetriebenen Güterwagen basiert, die ohne Fahrer automatisch gesteuert ihren Weg vom Start- zum Zielort selbsttätig finden. Die gesellschaftliche Erwünschtheit von mehr Schienengüterverkehr wird zu einem Gutteil mit der größeren Umweltfreundlichkeit, den geringeren externen Effekten der Eisenbahn begründet. Ob allerdings dieser Vorteil der Bahn erhalten bleibt, wenn versucht wird, die Vorteile eines dezentral gesteuerten automatischen Fahrens zu realisieren, stand bisher nicht fest. Die Arbeit untersucht diese Fragestellung durch die Rückführung externer Effekte auf naturwissenschaftlich-technische Grundlagen und kommt zu dem Ergebnis, daß 1. externe Nutzen in nennenswertem Umfang nicht einzuberechnen sind - weder im üblichen Sinne als statische technologische externe Effekte noch unter Berücksichtigung evolutionärer, dynamischer Aspekte; daß weiterhin 2. eine Einführung eines automatisierten und dezentralisierten Eisenbahngüterverkehrs eine deutliche Reduzierung der externen Effekte des Verkehrs erwarten läßt, und daß dabei 3. die Luftverschmutzung durch Abgase etwa "in der Mitte" zwischen heutigem Straßen- und Schienenverkehr liegt, Stau- und Unfallkosten jedoch im wesentlichen weiterhin den günstigeren Werten der Bahn entsprechen. Die Arbeit zeigt insgesamt, daß entgegen der ursprünglichen Befürchtung die externen Kosten eines automatisierten und dezentralisierten Schienengüterverkehrs dicht bei denen der bisherigen Bahn liegen. Trotzdem sind externe Kosten zu internalisieren, wo dies möglich scheint - nicht zuletzt, weil Ausmaß und Richtung des technischen Fortschritts durch Signale über die wirklichen Knappheiten gelenkt werden müssen. Die praktische Durchführbarkeit eines Schienengütertransports mit dezentral gesteuerten fahrerlosen Gütertriebwagen müßte in einem nächsten Schritt in der Praxis erprobt werden, weiterer Forschungsbedarf bleibt auch bei der Frage der Unfallsicherheit eines solchen Systems bestehen.
In dieser Arbeit wurde die transversale Flußgeschwindigkeit einer Schwerionenreaktion direkt bestimmt. Dazu modifizierte man den herkömmlichen Yano-Koonin-Podgoretskii Formalismus, der zur Bestimmung der longitudinalen Expansion bereits erfolgreich eingesetzt wurde. Die transversale Expansion wurde in verschiedenen kinematischen Bereichen bestimmt. Einzelne Quellabschnitte erreichen Geschwindigkeiten bis zu b = 0.8. Das entspricht den Werten, die man durch indirekte Verfahren für den transversalen Fluß bestimmte. In den Intervallen mittlerer longitudinaler Paarrapidität entspricht die Yano-Koonin-Podgoretskii Rapidität der mittleren Paarrapidität. Dieses Verhalten erwartet man von einer Quelle, die ein boostinvariantes Expansionsverhalten besitzt. Die HBT-Radien, die im Zuge der Analyse der Korrelationsfunktion bestimmt wurden, entsprechen in der Größenordnung denen, die bei der Untersuchung der longitudinalen Expansion bestimmt wurden. Lediglich der Parameter R0 zeigt ein abweichendes Verhalten, indem er für geringere Rapiditäten kleinere Werte annimmt, dieser Parameter ist jedoch mit einem großen Fehler belastet. Die Konsistenz des Formalismus bezüglich verschieden gewählter transversaler Richtungen wurde überprüft. Trotz erheblicher Unterschiede in den transversalen Rapiditätsverteilungen wurden in vier verschiedenen Richtungen vergleichbare Resultate gemessen. Um einen größeren Impulsbereich abzudecken wurden die Messungen in zwei verschiedenen Magnetfeldkonfigurationen durchgeführt, in den Bereichen wo die Parameter der Korrelationsfunktion im beiden bestimmt werden konnten, ergaben sich vergleichbare Werte.
Derivatives usage in risk management by U.S. and German non-financial firms : a comparative survey
(1998)
This paper is a comparative study of the responses to the 1995 Wharton School survey of derivative usage among US non-financial firms and a 1997 companion survey on German non-financial firms. It is not a mere comparison of the results of both studies but a comparative study, drawing a comparable subsample of firms from the US study to match the sample of German firms on both size and industry composition. We find that German firms are more likely to use derivatives than US firms, with 78% of German firms using derivatives compared to 57% of US firms. Aside from this higher overall usage, the general pattern of usage across industry and size groupings is comparable across the two countries. In both countries, foreign currency derivative usage is most common, followed closely by interest rate derivatives, with commodity derivatives a distant third. Usage rates across all three classes of derivatives are higher for German firms than US firms. In contrast to the similarities, firms in the two countries differ notably on issues such as the primary goal of hedging, their choice of instruments, and the influence of their market view when taking derivative positions. These differences appear to be driven by the greater importance of financial accounting statements in Germany than the US and stricter German corporate policies of control over derivative activities within the firm. German firms also indicate significantly less concern about derivative related issues than US firms, which appears to arise from a more basic and simple strategy for using derivatives. Finally, among the derivative non-users, German firms tend to cite reasons suggesting derivatives were not needed whereas US firms tend to cite reasons suggesting a possible role for derivatives, but a hesitation to use them for some reason.
The purpose of the paper is to survey and discuss inflation targeting in the context of monetary policy rules. The paper provides a general conceptual discussion of monetary policy rules, attempts to clarify the essential characteristics of inflation targeting, compares inflation targeting to the other monetary policy rules, and draws some conclusions for the monetary policy of the European system of Central Banks.
Despite the relevance of credit financing for the profit and risk situation of commercial banks only little empirical evidence on the initial credit decision and monitoring process exists due to the lack of appropriate data on bank debt financing. The present paper provides a systematic overview of a data set generated during the Center for Financial Studies research project on "Credit Management" which was designed to fill this empirical void. The data set contains a broad list of variables taken from the credit files of five major German banks. It is a random sample drawn from all customers which have engaged in some form of borrowing from the banks in question between January 1992 and January 1997 and which meet a number of selection criteria. The sampling design and data collection procedure are discussed in detail. Additionally, the project's research agenda is described and some general descriptive statistics of the firms in our sample are provided.
We studied information and interaction processes in six lending relationships between a universal bank and medium sized firms. The study is based on the credit files of the respective firms. If no problems occur in these lending relationships, bank monitoring is based mainly on cheap, retrospective and internal data. In case of distress, more expensive, prospective and external information is used. The level of monitoring and the willingness to renegotiate the lending relationship depends on what the lending officers can learn about the future prospects of the firm from the behaviour of the debtors. We identify both signalling and bonding activities. Such learning from past behaviour seems to allow monitoring at low cost, whereas the direct observation of the firm's investment outlook seems to be very costly. Also, too much knowledge about the firm's investments might leave the bank in a very strong bargaining position and distort investment incentives. Therefore, the traditional view of credit assessment as observation of the quality of a borrower's investment programme needs to be reconsidered.
Shares trading in the Bolsa mexicana de Valores do not seem to react to company news. Using a sample of Mexican corporate news announcements from the period July 1994 through June 1996, this paper finds that there is nothing unusual about returns, volatility of returns, volume of trade or bid-ask spreads in the event window. This suggests one of five possibilities: our sample size is small; or markets are inefficient; or markets are efficient but the corporate news announcements are not value-relevant; or markets are efficient and corporate news announcements are value-relevant, but they have been fully anticipated; or markets are efficient and corporate news announcements are value-relevant, but unrestricted insider trading has caused prices to fully incorporate the information. The evidence supports the last hypothesis. The paper thus points towards a methodology for ranking emerging stock markets in terms of their market integrity, an approach that can be used with the limited data available in such markets.
No one seems to be neutral about the effects of EMU on the German economy. Roughly speaking, there are two camps: those who see the euro as the advent of a newly open, large, and efficient regime which will lead to improvements in European and in particular in German competitiveness; those who see the euro as a weakening of the German commitment to price stability. From a broader macroeconomic perspective, however, it is clear that EMU is unlikely to cause directly any meaningful change either for the better in Standort Deutschland or for the worse in the German price stability. There is ample evidence that changes in monetary regimes (so long as non leaving hyperinflation) induce little changes in real economic structures such as labor or financial markets. Regional asymmetries of the sorts in the EU do not tend to translate into monetary differences. Most importantly, there is no good reason to believe that the ECB will behave any differently than the Bundesbank.
Where do we stand in the theory of finance? : a selective overview with reference to Erich Gutenberg
(1998)
For the past 20 years, financial markets research has concerned itself with issues related to the evaluation and management of financial securities in efficient capital markets and with issues of management control in incomplete markets. The following selective overview focuses on key aspects of the theory and empirical experience of management control under conditions of asymmetric information. The objective is examine the validity of the recently advanced hypothesis on the myths of corporate control. The present overview is based on Gutenberg's position that there exists a discrete corporate interest, as distinct from and separate from the interests of the shareholders or other stakeholders. In the third volume of Grundlagen der BWL: Die Finanzen, published in 1969, this position of Gutenberg's is coupled with an appeal for a so-called financial equilibrium to be maintained. Not until recently have models grounded in capital market theory been developed which also allow for a firm's management to exercise autonomy vis-à-vis its stakeholder. This paper was prepared for the Erich Gutenberg centenary conference on December 12 and 13, 1997 in Cologne.
This study examines the relation of bank loan terms like interest rates, collateral, and lines of credit to borrower risk defined by the banks' internal credit rating. The analysis is not restricted to a static view. It also incorporates rating transition and its implications on the relation. Money illusion and phenomena linked with relationship banking are discovered as important factors. The results show that riskier borrowers pay higher loan rate premiums and rely more on bank finance. Housebanks obtain more collateral and provide more finance. Caused by money illusion in times of high market interest rates loan rate premiums are relatively small whereas in times of low market interest rates they are relatively high. There was no evidence for an appropriate adjustment of loan terms to rating changes. But bank market power represented by a weighted average of credit rating before and after a rating transition serves to compensate for low earlier profits caused by phenomena of interest rate smoothing. Klassifikation: G21.
Banks increasingly recognize the need to measure and manage the credit risk of their loans on a portfolio basis. We address the subportfolio "middle market". Due to their specific lending policy for this market segment it is an important task for banks to systematically identify regional and industrial credit concentrations and reduce the detected concentrations through diversification. In recent years, the development of markets for credit securitization and credit derivatives has provided new credit risk management tools. However, in the addressed market segment adverse selection and moral hazard problems are quite severe. A potential successful application of credit securitization and credit derivatives for managing credit risk of middle market commercial loan portfolios depends on the development of incentive-compatible structures which solve or at least mitigate the adverse selection and moral hazard problems. In this paper we identify a number of general requirements and describe two possible solution concepts.
During the last years the lending business has come under considerable competitive pressure and bank managers often express concern regarding its profitability vis-a-vis other activities. This paper tries to empirically identify factors that are able to explain the financial performance of bank lending activities. The analysis is based on the CFS-data-set that has been collected in 1997 from 200 medium-sized firms. Two regressions are performed: The first is directed towards relationships between the interest rate premiums and various determining factors, the second aims at detecting relationships between those factors and the occurrence of several types of problems during the course of a credit engagement. Furthermore, the results of both regressions are used to test theoretical hypotheses regarding the impact of certain parameters on credit terms and distress probabilities. The findings are somewhat “puzzling“: First, the rating is not as significant as expected. Second, credit contracts seem to be priced lower for situations with greater risks. Finally, the results do not fully support any of three hypotheses that are often advanced to describe the role of collateral and covenants in credit contracts.
Das 1913 auf dem Gipfel des Kleinen Feldbergs gegründete Taunus-Observatorium (T.O.) ist eine Einrichtung der Johann Wolfgang Goethe-Universität Frankfurt am Main. Es dient dem Institut für Meteorologie und Geophysik als Forschungsstätte für kontinuierliche Messungen und als Standort für Meßkampagnen in Zusammenarbeit mit anderen Instituten, wie z. B. beim The Kleiner Feldberg Cloud Experiment 1990 [Fuzzi, 1995]. Darüber hinaus wird das Observatorium mit seinen Einrichtungen immer wieder für Messungen im Rahmen von Diplom- und Doktorarbeiten genutzt. Primäres Ziel dieser Diplomarbeit war eine Charakterisierung der zeitlichen Variabilität der luftchemischen Bedingungen am Taunus-Observatorium in Abhängigkeit von Wetter und Witterung. In der Zeit vom 13. Dezember 1996 bis zum 26. März 1997 wurden am Taunus- Observatorium auf dem Kleinen Feldberg mit Hilfe eines gaschromatographischen Analyseverfahrens die Spurengase Kohlenmonoxid und molekularer Wasserstoff gemessen, um die zeitliche Variabilität der luftchemischen Bedingungen am Taunus-Observatorium in Abhängigkeit von Wetter und Witterung zu untersuchen. Bei der Meßreihe am Taunus-Observatorium zeigte sich, daß die zeitlichen Variationen der langlebigen Spurengase CO und H2 über Tage und Wochen maßgeblich durch den Ferntransport von Luftmassen und die jeweilige Großwetterlage bestimmt werden. Mit Hilfe von Trajektorienanalysen konnte gezeigt werden, daß die Messungen stark von Herkunft und Zugweg der jeweiligen Luftmassen abhängen. Deutliche Änderungen der mittleren CO- und H2-Mischungsverhältnisse wurden bei Luftmassenänderungen beobachtet, wie z. B. eine markante Abnahme von Kohlenmonoxid und molekularem Wasserstoff nach dem Durchgang von Kalt- oder Warmfronten. Extreme Unterschiede der gemessenen Spurengaskonzentrationen konnten auch bei verschiedenen winterlichen Inversionswetterlagen registriert werden. Befand sich das Taunus-Observatorium unterhalb einer Temperaturinversion in der bodennahen Grenzschicht, wurden ungewöhnlich hohe CO- und H2-Mischungsverhältnisse gemessen; war der Kleine Feldberg dagegen über der Inversion innerhalb der freien Atmosphäre, wurden wiederholtdie atmosphärischen Hintergrundkonzentrationen von Kohlenmonoxid und molekularem Wasserstoff beobachtet. Auch durch lokale und regionale Effekte konnten in Abhängigkeit von der lokalen Windrichtung starke zeitliche Variationen der luftchemischen Bedingungen beobachtet werden. Durch die Orographie bedingt Verursachen kleine Änderungen der lokalen Windrichtung drastische Veränderungen in den gemessenen Spurengaskonzentrationen. So trennt z. B. der Taunuskamm die durch regionale Quellen im Großraum Frankfurt belastete Luft im Vordertaunus von der weniger verschmutzter Luft im ländlichen Hintertaunus. Darüber hinaus kann durch die Kanalisierung des Windes in verschiedenen Tälern oder an den Flanken des Taunuskammskontaminierte Luft aus den Niederungen herangeführt werden. Die hohe Variabilität der gemessenen Mischungsverhältnisse in Abhängigkeit von Meteorologie und Orographie dominiert den Tagesverlauf der CO- und H2-Messungen. Daher war eine Untersuchung von anthropogenen Tages- und Wochengängen oder sogar jahreszeitlicher Variationen der langlebigen Spurengase CO und H2 am Taunus-Observatorium nicht möglich. Zusätzlich zu den Messungen am Taunus-Observatorium wurde mit der in dieser Arbeit vorbereiteten Analytik das Mischungsverhältnis von molekularem Wasserstoff in stratosphärischen Luftproben von drei verschiedenen Ballonflügen gemessen, entsprechende H2-Vertikalprofile erstellt und die Ergebnisse der Messungen mit Modellrechnungen verglichen.
The German financial market is often characterized as a bank-based system with strong bank-customer relationships. The corresponding notion of a housebank is closely related to the theoretical idea of relationship lending. It is the objective of this paper to provide a direct comparison between housebanks and "normal" banks as to their credit policy. Therefore, we analyze a new data set, representing a random sample of borrowers drawn from the credit portfolios of five leading German banks over a period of five years. We use credit-file data rather than industry survey data and, thus, focus the analysis on information that is directly related to actual credit decisions. In particular, we use bank-internal borrower rating data to evaluate borrower quality, and the bank's own assessment of its housebank status to control for information-intensive relationships.
This paper reviews the factors that will determine the shape of financial markets under EMU. It argues that financial markets will not be unified by the introduction of the euro. National central banks have a vested interest in preserving local idiosyncracies (e.g. the Wechsels in Germany) and they might be allowed to do so by promoting the use of so-called tier two assets under the common monetary policy. Moreover, a host of national regulations (prudential and fiscal) will make assets expressed in euro imperfect substitutes across borders. Prudential control will also continue to be handled differently from country to country. In the long run these national idiosyncracies cannot survive competitive pressures in the euro area. The year 1999 will thus see the beginning of a process of unification of financial markets that will be irresistible in the long run, but might still take some time to complete.
Mit den Erinnerungstexten jüdischer Emigranten, in denen die Kindheit im altösterreichischen Galizien eine herausragende Rolle spielt, behandelt diese Arbeit eine bisher wenig beachtete Komponente der deutschen Exilliteratur. Enttäuscht in ihrer Identifikation mit Deutschland und verunsichert durch das Leben im Exil richten die Autoren die Gedanken nach rückwärts: Sie besinnen sich auf die schon weit entfernte Welt ihrer Kindheit im galizischen Schtetl. Trotz unterschiedlicher Formen weisen die Texte viele thematische Parallelen auf und sind in der farbigen Zeichnung der 'Welt von Vorgestern' von der unwirtlichen Exilgegenwart geprägt. Exemplarisch wird diese 'imaginative Aneignung ihrer Herkunft als Heimat' (B.Spies) an der Autobiographie des Schauspielers Granach und dem autobiographischen Roman des Journalisten Katz gezeigt.
Diese Arbeit entstand im Zusammenhang mit dem Funneling-Experiment am Institut für Angewandte Physik. Dieses Experiment soll die praktische Umsetzung des für das HIDIF-Projekt benötigte Funneln zur Ionenstrom-Erhöhung demonstrieren. Dabei stand die Erzeugung zweier identischer Ionenstrahlen mit einer Energie von 4 keV im Vordergrund. Diese Ionenstrahlen werden in zwei aufeinander zulaufenden RFQ-Beschleunigern auf eine Energie von 160 keV beschleunigt. Der noch in Planung stehende Funneling-Deflektor bringt die beiden Ionenstrahlen auf eine gemeinsame Strahlachse. Zu Beginn der Diplomarbeit stand der Umbau der Emittanzmeßanlage auf eine PC-Plattform. Gleichzeitig wurde ein sogenannter Quellenturm zum Betrieb der Ionenquellen aufgebaut (vgl. Kapitel 7.2). Die Multicusp-Ionenquellen wurden von K. N. Leung vom Lawrence Berkeley National Laboratory (LBNL) entwickelt und gebaut. Das elektrostatische Linsensystem wurde von R. Keller (LBNL) entworfen und berechnet. Die beiden Linsensysteme wurden in unserer Werkstatt gefertigt. Der erste Teil des Testbetriebs der Injektionssysteme, bestehend aus der Multicusp- Ionenquelle sowie dem elektrostatischen Linsensystem auch LEBT (Low Energy Beam Transport) genannt, bestand aus der Messung des Strahlstromes sowie der zugehörigen Emittanz. Zum Messen des Strahlstromes stand eine durch Preßluft in den Ionenstrahl fahrbare Faradaytasse zur Verfügung. Von dieser Faradaytasse wurde eine Kennlinie zur Bestimmung der Spannung der Sekundärelektronen- unterdrückung aufgenommen (vgl. Kapitel 8.1). Zur Messung der Strahlemittanz wurde eine Emittanzmessung nach dem Schlitz-Gitter Prinzip vorgenommen (vgl. Kapitel 5, Kapitel 7.7-7.9). Beim Betreiben der Injektionssysteme stand vor allem der Synchronbetrieb im Vordergrund. Dabei wurde festgestellt, daß eine der beiden Ionenquellen auch ohne Linsensystem einen größeren Strahlstrom liefert (vgl. Kapitel 8.9). Der Unterschied zwischen den Ionenquellen beträgt bei einem Bogenstrom von 6 A über 20 %. Dies bedeutet für den späteren Strahlbetrieb am RFQ, daß zum Erzeugen gleicher Strahlströme eine Ionenquelle immer mit einem kleineren Bogenstrom betrieben werden muß. Die dadurch unterschiedlichen Plasmadichten sowie thermischen Belastungen der Plasmakammer und unterschiedlichen Füllgrade der elektrostatischen Linsen tragen zu den festgestellten Emittanzunterschieden bei. Zum späteren Vergleich der Injektionssysteme wurde ein Injektionssystem durch verschiedene Bogenströme, variierte Spannungen an den elektrostatischen Linsen sowie unterschiedlichen Gasdrücken in der Plasmakammer ausgemessen. Diese Messungen wurden nach Wechseln der Glühkathode sowie Demontage und Neumontage von Ionenquelle und Linsensystem wiederholt. Dabei wurde festgestellt, daß sich der Strahlstrom bei der Vergleichsmessung kaum, die Emittanz der Injektionssysteme aber bis ca. 10% ändert (vgl. Kapitel 8.5). Diese Unterschiede müssen bei dem späteren Vergleich mit dem zweiten Injektionssystem einbezogen werden.Beim Betrieb des zweiten Injektionssystems wurden im direkten Vergleich der Injektionssysteme Unterschiede zwischen dem Strahlstrom sowie der Emittanz festgestellt. Auch hier lieferte das zweite Injektionssystem den schon nach der Ionenquelle festgestellten größeren Ionenstrom. Die gemessenen normierten 90 % RMS-Emittanzen bei einem Strahlstrom von 1 mA betragen am Injektionssystem 1 , beim Injektionssystem 2 , bei einer e1 =0,0288 mm mrad e2 =0,0216 mm mrad Strahlenergie von 4 keV. Die Emittanzunterschiede betragen bis zu 30 %. Im Betrieb mit dem RFQ können die Linsensysteme nicht mit den identischen Spannungen betrieben werden. Dies ist zum einen auf die fertigungsbedingten Unterschiede zurückzuführen, zum anderen auf die abweichenden Plasmadichten zum Erreichen gleicher Strahlströme. Im geplanten HIDIF-Projekt sollen 48 Ionenquellen drei unterschiedliche Teilchenströme erzeugen. Bei dieser Anzahl an Ionenquellen für drei unterschiedliche Ionensorten wird das Erzeugen identischer Teilchenströme sicher noch schwerer zu bewältigen sein. Am Funneling-Experiment ist der Vergleich der beiden Injektionssysteme abgeschlossen. Der Doppelstrahl RFQ-Beschleuniger ist aufgebaut, es wurde bereits ein Ionenstrahl in den RFQ eingeschossen (vgl. Kapitel 8.13). Die normierten 90 % RMS-Emittanzen nach dem RFQ betragen 0,057 mm mrad sowie 0,0625 mm mrad für die beiden Strahlachsen. Der Emittanzunterschied ist kleiner 9 %. Die Emittanzen nach dem RFQ können nicht direkt mit den im Testbetrieb gemessenen Emittanzen der Injektionssysteme verglichen werden. Im Strahlbetrieb mit dem RFQ wurde eine Strahlenergie der Injektionssysteme von 4,15 keV benötigt. Außerdem mußten durch geänderte Einschußbedingungen in den RFQ die Linsenspannungen gegenüber dem Testbetrieb variiert werden. Mit dem Aufbau des Funneling-Deflektors wird zur Zeit begonnen. Nach der Erprobung wird der Einbau in die Strahlachse erfolgen.
We analyze the reaction dynamics of central Pb+Pb collisions at 160 GeV/nucleon. First we estimate the energy density pile-up at mid-rapidity and calculate its excitation function: The energy density is decomposed into hadronic and partonic contributions. A detailed analysis of the collision dynamics in the framework of a microscopic transport model shows the importance of partonic degrees of freedom and rescattering of leading (di)quarks in the early phase of the reaction for E >= 30 GeV/nucleon. The energy density reaches up to 4 GeV/fm 3, 95% of which are contained in partonic degrees of freedom. It is shown that cells of hadronic matter, after the early reaction phase, can be viewed as nearly chemically equilibrated. This matter never exceeds energy densities of 0.4 GeV/fm 3, i.e. a density above which the notion of separated hadrons loses its meaning. The final reaction stage is analyzed in terms of hadron ratios, freeze-out distributions and a source analysis for final state pions.
Thermodynamical variables and their time evolution are studied for central relativistic heavy ion collisions from 10.7 to 160 AGeV in the microscopic Ultrarelativistic Quantum Molecular Dynamics model (UrQMD). The UrQMD model exhibits drastic deviations from equilibrium during the early high density phase of the collision. Local thermal and chemical equilibration of the hadronic matter seems to be established only at later stages of the quasi-isentropic expansion in the central reaction cell with volume 125 fm 3. Baryon energy spectra in this cell are reproduced by Boltzmann distributions at all collision energies for t > 10 fm/c with a unique rapidly dropping temperature. At these times the equation of state has a simple form: P = (0.12 - 0.15) Epsilon. At SPS energies the strong deviation from chemical equilibrium is found for mesons, especially for pions, even at the late stage of the reaction. The final enhancement of pions is supported by experimental data.
Equilibrium properties of infinite relativistic hadron matter are investigated using the Ultrarelativistic Quantum Molecular Dynamics (UrQMD) model. The simulations are performed in a box with periodic boundary conditions. Equilibration times depend critically on energy and baryon densities. Energy spectra of various hadronic species are shown to be isotropic and consistent with a single temperature in equilibrium. The variation of energy density versus temperature shows a Hagedorn-like behavior with a limiting temperature of 130 +/- 10 MeV. Comparison of abundances of different particle species to ideal hadron gas model predictions show good agreement only if detailed balance is implemented for all channels. At low energy densities, high mass resonances are not relevant; however, their importance raises with increasing energy density. The relevance of these different conceptual frameworks for any interpretation of experimental data is questioned.
Local kinetic and chemical equilibration is studied for Au+Au collisions at 10.7 AGeV in the microscopic Ultrarelativistic Quantum Molecular Dynamics model (UrQMD). The UrQMD model exhibits dramatic deviations from equilibrium during the high density phase of the collision. Thermal and chemical equilibration of the hadronic matter seems to be established in the later stages during a quasiisentropic expansion, observed in the central reaction cell with volume 125 fm3. For t > 10 fm/c the hadron energy spectra in the cell are nicely reproduced by Boltzmann distributions with a common rapidly dropping temperature. Hadron yields change drastically and at the late expansion stage follow closely those of an ideal gas statistical model. The equation of state seems to be simple at late times: P = 0.12 Epsilon. The time evolution of other thermodynamical variables in the cell is also presented.
In this paper, the concepts of microscopic transport theory are introduced and the features and shortcomings of the most commonly used ansatzes are discussed. In particular, the Ultrarelativistic Quantum Molecular Dynamics (UrQMD) transport model is described in great detail. Based on the same principles as QMD and RQMD, it incorporates a vastly extended collision term with full baryon-antibaryon symmetry, 55 baryon and 32 meson species. Isospin is explicitly treated for all hadrons. The range of applicability stretches from E lab < 100$ MeV/nucleon up to E lab> 200$ GeV/nucleon, allowing for a consistent calculation of excitation functions from the intermediate energy domain up to ultrarelativistic energies. The main physics topics under discussion are stopping, particle production and collective flow.
Beitrag fur das 27. Wirtschaftswissenschaftliche Seminar Ottobeuren 14.- 17.9.1997). Dieser Beitrag nimmt aus theoretischer und ökonometrischer Sicht zu der Kontroverse über die Bedeutung der qualifikatorischen Lohnstruktur zur Erklärung der Beschäftigungsstruktur Stellung. Basierend auf einer Einteilung in drei Qualifikationsgruppen zeigt sich empirisch, daß die Entlohnung der mittleren Gruppe relativ zur unteren und oberen weniger stark ansteigt, während ein kontinuierlicher Trend zur Höherqualifikation der Beschäftigten besteht. Es werden eine Translog-Kostenfunktion und Anteilsgleichungen ökonometrisch geschätzt, um den Einfluß der Lohnstruktur auf die Beschäftigungsstruktur zu erfassen. Bei allen Vorbehalten aufgrund verschiedener Probleme der Schätzungen implizieren die Ergebnisse einen signifikanten Einfluß der qualifikatorischen Struktur der mittleren Löhne auf die Beschäftigungsstruktur wie auch eine die relative Beschäftigung steigernde Wirkung einer erhöhten Lohndispersion innerhalb der Qualifikationsgruppen. Damit besteht die Möglichkeit, daß mit einer größeren Lohnspreizung die Lastverteilung der Arbeitslosigkeit bei gegebenem Output, Kapitaleinsatz und technischem Fortschritt in Form einer Erhöhung der Beschäftigung von gering qualifizierten Arbeitnehmern angeglichen werden kann.
Central wage bargaining and local wage flexibility : evidence from the entire wage distribution
(1998)
We argue that in labor markets with central wage bargaining wage flexibility varies systematically across the wage distribution: local wage flexibility is more relevant for the upper part of the wage distribution, and flexibility of wages negotiated under central wage bargaining affects the lower part of the wage distribution. Using a random sample of German social-security accounts, we estimate wage flexibility across the wage distribution by means of quantile regressions. The results support our hypothesis, as employees with low wages have significantly lower local wage flexibility than high wage employees. This effect is particularly relevant for the lower educational groups. On the other hand, employees with low wages tend to have a higher wage flexibility with respect to national unemployment.
Während in vielen Wirtschaftsbereichen der Online-Vertragsabschluß trotz der bestehenden rechtlichen und technischen Unwägbarkeiten eine Alltäglichkeit geworden ist, liegen die Dinge in der Versicherungswirtschaft anders. Es sind zwar heute fast alle großen Versicherungsunternehmen im Netz; die überwiegende Zahl der Angebote bleibt aber noch weit hinter dem technisch bereits Möglichen zurück1. Als Grund für diese Zurückhaltung führen die Versicherungsunternehmen neben Sicherheitsrisiken vor allem rechtliche Probleme mit dem neuen Medium ins Feld2. Dieser Beitrag macht es sich deshalb zur Aufgabe, zunächst die Nutzungsmöglichkeiten des Internets für Versicherungsunternehmen darzustellen und die wirtschaftlichen Chancen des Internets für Versicherungsunternehmen aufzuzeigen, um dann eingehend die rechtlichen Probleme bei der Nutzung dieses neuen Mediums zum Abschluß und zur Abwicklung von Versicherungsverträgen zu erörtern. Auf diese Weise soll eine juristische Entscheidungshilfe für den Einsatz des Internets als Vertriebsmedium in der Versicherungswirtschaft gegeben werden.
I analyze the most powerful shareholders in Germany to illustrate the concentration of control over listed corporations. Compared to other developed economies, the German stock market is dominated by large shareholders. I show that 77% of the median firm’s voting rights arecontrolled by large blockholders. This corresponds to 47% of the market value of all firms listed in Germany’s official markets. About two thirds of this amount is controlled by banks, industrial firms, holdings, and insurance companies. I show that due to current legislation it is clear for neither group who ultimate exerts control over the shareholding firm itself. For the remaining blockholders, only blocks controlled by voting pools and individuals can be traced back to the highest level of ownership. In the aggregate, both groups control only 5.6% of all reported blocks. The German government controls 8%, and it is not clear who ultimately is responsible for the consequences of decisions.
The article describes the legal structure of the Daimler-Chrysler merger. It asks why this specific structure rather than another cheaper way was chosen. This leads to the more general question of the pros and cons of mandatory corporate law as a regulatory device. The article advocates an "optional" approach: The legislator should offer various menus or sets of binding rules among which the parties may choose. (JEL: ...)
Es gibt Überlegungen, Kreditinstituten den Besitz der Anteilsmehrheit an Kapitalanlagegesellschaften (KAGs) zu untersagen. Dahinter steht die Vorstellung, daß solche Beteiligungen Gestaltungsspielräume eröffnen, die mißbräuchlich genutzt werden. Die Neuemission von Aktien ist einer der Fälle, die in diesem Zusammenhang erörtert werden. Ziel dieser Arbeit ist es zu prüfen, ob die zum Konzernverbund einer konsortialführenden Bank gehörenden KAGs bei Erstemissionen anders behandelt werden als andere KAGs. Untersucht werden 46 Neuemissionen der Jahre 1994 bis 1997. Daten über von den Fonds erworbene Aktien wurden den Rechenschafts- und Halbjahresberichten entnommen. Im Durchschnitt erwerben die untersuchten Fonds etwa 7% der emittierten Aktien. Ein Zusammenhang zwischen der Höhe des Anteilserwerbs und der nachfolgend realisierten Rendite kann nicht nachgewiesen werden. Die der jeweils konsortialführenden Bank zuzuordnenden Fonds erwerben mehr Anteile an einer Neuemission, wenn die ihnen zugeordnete Bank bei der Emission als Konsortialführerin auftritt. Eine Vorhersagbarkeit in dem Sinne, daß der Anteilserwerb in Beziehung zu der nachfolgend realisierten Rendite stünde, kann nicht festgestellt werden. Zudem ergeben sich keine Anhaltspunkte dafür, daß KAGs bei schlechtem Renditeverlauf der Neuemissionen Kurspflegeaufgaben übernehmen. Insgesamt deuten die Ergebnisse darauf hin, daß die KAGs in ihren Anlageentscheidungen unabhängig sind, und daß keine mißbräuchliche Nutzung eventuell vorhandener Informationsvorsprünge vorliegt. Allerdings ist die Datenbasis, bedingt durch die Vorschriften über die Rechnungslegung der Fonds, unbefriedigend. Es wäre daher zu überlegen, den Fonds stringentere Berichtspflichten aufzuerlegen.