Refine
Year of publication
Document Type
- Article (30890)
- Part of Periodical (11931)
- Book (8323)
- Doctoral Thesis (5741)
- Part of a Book (3723)
- Working Paper (3394)
- Review (2879)
- Contribution to a Periodical (2369)
- Preprint (2318)
- Conference Proceeding (1710)
Language
- German (42634)
- English (30251)
- French (1067)
- Portuguese (723)
- Multiple languages (314)
- Croatian (302)
- Spanish (301)
- Italian (195)
- mis (174)
- Turkish (148)
Is part of the Bibliography
- no (76434) (remove)
Keywords
- Deutsch (1038)
- Literatur (809)
- taxonomy (771)
- Deutschland (543)
- Rezension (491)
- new species (457)
- Frankfurt <Main> / Universität (341)
- Rezeption (325)
- Geschichte (292)
- Übersetzung (271)
Institute
- Medizin (7802)
- Präsidium (5239)
- Physik (4754)
- Wirtschaftswissenschaften (2718)
- Extern (2661)
- Gesellschaftswissenschaften (2378)
- Biowissenschaften (2205)
- Biochemie und Chemie (1978)
- Frankfurt Institute for Advanced Studies (FIAS) (1867)
- Informatik (1709)
We analyze the reaction dynamics of central Pb+Pb collisions at 160 GeV/nucleon. First we estimate the energy density pile-up at mid-rapidity and calculate its excitation function: The energy density is decomposed into hadronic and partonic contributions. A detailed analysis of the collision dynamics in the framework of a microscopic transport model shows the importance of partonic degrees of freedom and rescattering of leading (di)quarks in the early phase of the reaction for E >= 30 GeV/nucleon. The energy density reaches up to 4 GeV/fm 3, 95% of which are contained in partonic degrees of freedom. It is shown that cells of hadronic matter, after the early reaction phase, can be viewed as nearly chemically equilibrated. This matter never exceeds energy densities of 0.4 GeV/fm 3, i.e. a density above which the notion of separated hadrons loses its meaning. The final reaction stage is analyzed in terms of hadron ratios, freeze-out distributions and a source analysis for final state pions.
Thermodynamical variables and their time evolution are studied for central relativistic heavy ion collisions from 10.7 to 160 AGeV in the microscopic Ultrarelativistic Quantum Molecular Dynamics model (UrQMD). The UrQMD model exhibits drastic deviations from equilibrium during the early high density phase of the collision. Local thermal and chemical equilibration of the hadronic matter seems to be established only at later stages of the quasi-isentropic expansion in the central reaction cell with volume 125 fm 3. Baryon energy spectra in this cell are reproduced by Boltzmann distributions at all collision energies for t > 10 fm/c with a unique rapidly dropping temperature. At these times the equation of state has a simple form: P = (0.12 - 0.15) Epsilon. At SPS energies the strong deviation from chemical equilibrium is found for mesons, especially for pions, even at the late stage of the reaction. The final enhancement of pions is supported by experimental data.
Equilibrium properties of infinite relativistic hadron matter are investigated using the Ultrarelativistic Quantum Molecular Dynamics (UrQMD) model. The simulations are performed in a box with periodic boundary conditions. Equilibration times depend critically on energy and baryon densities. Energy spectra of various hadronic species are shown to be isotropic and consistent with a single temperature in equilibrium. The variation of energy density versus temperature shows a Hagedorn-like behavior with a limiting temperature of 130 +/- 10 MeV. Comparison of abundances of different particle species to ideal hadron gas model predictions show good agreement only if detailed balance is implemented for all channels. At low energy densities, high mass resonances are not relevant; however, their importance raises with increasing energy density. The relevance of these different conceptual frameworks for any interpretation of experimental data is questioned.
Local kinetic and chemical equilibration is studied for Au+Au collisions at 10.7 AGeV in the microscopic Ultrarelativistic Quantum Molecular Dynamics model (UrQMD). The UrQMD model exhibits dramatic deviations from equilibrium during the high density phase of the collision. Thermal and chemical equilibration of the hadronic matter seems to be established in the later stages during a quasiisentropic expansion, observed in the central reaction cell with volume 125 fm3. For t > 10 fm/c the hadron energy spectra in the cell are nicely reproduced by Boltzmann distributions with a common rapidly dropping temperature. Hadron yields change drastically and at the late expansion stage follow closely those of an ideal gas statistical model. The equation of state seems to be simple at late times: P = 0.12 Epsilon. The time evolution of other thermodynamical variables in the cell is also presented.
In this paper, the concepts of microscopic transport theory are introduced and the features and shortcomings of the most commonly used ansatzes are discussed. In particular, the Ultrarelativistic Quantum Molecular Dynamics (UrQMD) transport model is described in great detail. Based on the same principles as QMD and RQMD, it incorporates a vastly extended collision term with full baryon-antibaryon symmetry, 55 baryon and 32 meson species. Isospin is explicitly treated for all hadrons. The range of applicability stretches from E lab < 100$ MeV/nucleon up to E lab> 200$ GeV/nucleon, allowing for a consistent calculation of excitation functions from the intermediate energy domain up to ultrarelativistic energies. The main physics topics under discussion are stopping, particle production and collective flow.
Ratios of hadronic abundances are analyzed for pp and nucleus-nucleus collisions at sqrt(s)=20 GeV using the microscopic transport model UrQMD. Secondary interactions significantly change the primordial hadronic cocktail of the system. A comparison to data shows a strong dependence on rapidity. Without assuming thermal and chemical equilibrium, predicted hadron yields and ratios agree with many of the data, the few observed discrepancies are discussed.
We present calculations of two-pion and two-kaon correlation functions in relativistic heavy ion collisions from a relativistic transport model that includes explicitly a first-order phase transition from a thermalized quark-gluon plasma to a hadron gas. We compare the obtained correlation radii with recent data from RHIC. The predicted R_side radii agree with data while the R_out and R_long radii are overestimated. We also address the impact of in-medium modifications, for example, a broadening of the rho-meson, on the correlation radii. In particular, the longitudinal correlation radius R_long is reduced, improving the comparison to data.
We calculate the kaon HBT radius parameters for high energy heavy ion collisions, assuming a first order phase transition from a thermalized Quark-Gluon-Plasma to a gas of hadrons. At high transverse momenta K_T ~ 1 GeV/c direct emission from the phase boundary becomes important, the emission duration signal, i.e., the R_out/R_side ratio, and its sensitivity to T_c (and thus to the latent heat of the phase transition) are enlarged. Moreover, the QGP+hadronic rescattering transport model calculations do not yield unusual large radii (R_i<9fm). Finite momentum resolution effects have a strong impact on the extracted HBT parameters (R_i and lambda) as well as on the ratio R_out/R_side.
We investigate transverse hadron spectra from relativistic nucleus-nucleus collisions which reflect important aspects of the dynamics - such as the generation of pressure - in the hot and dense zone formed in the early phase of the reaction. Our analysis is performed within two independent transport approaches (HSD and UrQMD) that are based on quark, diquark, string and hadronic degrees of freedom. Both transport models show their reliability for elementary pp as well as light-ion (C+C, Si+Si) reactions. However, for central Au+Au (Pb+Pb) collisions at bombarding energies above ~ 5 A.GeV the measured K+- transverse mass spectra have a larger inverse slope parameter than expected from the calculation. Thus the pressure generated by hadronic interactions in the transport models above ~ 5 A.GeV is lower than observed in the experimental data. This finding shows that the additional pressure - as expected from lattice QCD calculations at finite quark chemical potential and temperature - is generated by strong partonic interactions in the early phase of central Au+Au (Pb+Pb) collisions.
We calculate the antibaryon-to-baryon ratios, anti-p/p, anti-Lambda/Lambda, anti-Xi/Xi, and anti-Omega/Omega for Au+Au collisions at RHIC (sqrt{s}_{NN}=200 GeV). The effects of strong color fields associated with an enhanced strangeness and diquark production probability and with an effective decrease of formation times are investigated. Antibaryon-to-baryon ratios increase with the color field strength. The ratios also increase with the strangeness content |S|. The netbaryon number at midrapidity considerably increases with the color field strength while the netproton number remains roughly the same. This shows that the enhanced baryon transport involves a conversion into the hyperon sector (hyperonization) which can be observed in the (Lambda - anti-Lambda)/(p - anti-p) ratio.
We make predictions for the kaon interferometry measurements in Au+Au collisions at the Relativistic Heavy Ion Collider (RHIC). A first order phase transition from a thermalized Quark-Gluon-Plasma (QGP) to a gas of hadrons is assumed for the transport calculations. The fraction of kaons that are directly emitted from the phase boundary is considerably enhanced at large transverse momenta K T ~ 1 GeV/c. In this kinematic region, the sensitivity of the R out/R side ratio to the QGP-properties is enlarged. Here, the results of the 1-dimensional correlation analysis are presented. The extracted interferometry radii, depending on K-Theta, are not unusually large and are strongly affected by momentum resolution effects.
The disappearance of flow
(1995)
We investigate the disappearance of collective flow in the reaction plane in heavy-ion collisions within a microscopic model (QMD). A systematic study of the impact parameter dependence is performed for the system Ca+Ca. The balance energy strongly increases with impact parameter. Momentum dependent interactions reduce the balance energies for intermediate impact parameters b ~ 4.5 fm. Dynamical negative flow is not visible in the laboratory frame but does exist in the contact frame for the heavy system Au+Au. For semi-peripheral collisions of Ca+Ca with b ~ 6.5 fm a new two-component flow is discussed. Azimuthal distributions exhibit strong collectiv flow signals, even at the balance energy.
We investigate hadron production as well as transverse hadron spectra in nucleus-nucleus collisions from 2 A.GeV to 21.3 A.TeV within two independent transport approaches (UrQMD and HSD) that are based on quark, diquark, string and hadronic degrees of freedom. The comparison to experimental data demonstrates that both approaches agree quite well with each other and with the experimental data on hadron production. The enhancement of pion production in central Au+Au (Pb+Pb) collisions relative to scaled pp collisions (the 'kink') is well described by both approaches without involving any phase transition. However, the maximum in the K+/Pi+ ratio at 20 to 30 A.GeV (the 'horn') is missed by ~ 40%. A comparison to the transverse mass spectra from pp and C+C (or Si+Si) reactions shows the reliability of the transport models for light systems. For central Au+Au (Pb+Pb) collisions at bombarding energies above ~ 5 A.GeV, however, the measured K +/- m-theta-spectra have a larger inverse slope parameter than expected from the calculations. The approximately constant slope of K+/-spectra at SPS (the 'step') is not reproduced either. Thus the pressure generated by hadronic interactions in the transport models above ~ 5 A.GeV is lower than observed in the experimental data. This finding suggests that the additional pressure - as expected from lattice QCD calculations at finite quark chemical potential and temperature - might be generated by strong interactions in the early pre-hadronic/partonic phase of central Au+Au (Pb+Pb) collisions.
Es wurde in dieser Arbeit gezeigt, daß es möglich ist, die der Spin-Eichtheorie zugrundeliegende Lagrangedichte so zu verallgemeinern, daß die aus ihr folgende Higgsfeldgleichung eine gravitationsähnliche Wechselwirkung enthält. Der symmetrische Teil des kanonische Energie-Impulstensors des Higgsfeldes tritt als Quelle der symmetrischen Bewegungsgleichung der angeregten Higgsfelder in Erscheinung. Ein Vergleich der zweiten Ordnung des symmetrischen Teils der Higgsfeldgleichung mit der zweiten Ordnung der Einsteingleichung im materiefreien Fall zeigt, daß beide bis auf einen antisymmetrischen Divergenzterm A m n a a der den Energie Impuls-Erhaltungssatz nicht beeinflußt, übereinstimmen. Geht man wegen der Nichtlokalität des EIST's des Gravitationsfeldes, auf der Seite der klassischen Beschreibung zu einem grobkörnigen EIST über, so stimmt dieser mit dem EIST des Higgsfeldes überein. Sieht man von in kleinen Raumzeitvolumen stark uktuierenden Termen ab, so sind die Differentialgleichungen von Gravitations und Higgsfeldwellen bis zur zweiten Ordnung identisch. Betrachtet man eine Raumzeit mit fermionischer Materie, so stimmt die erste Ordnung der Feldgleichungen ebenfalls überein. Die Higgsfeldgleichung in zweiter Ordnung koppelt halb so stark an die fermionische Materie wie es die klassische Gleichung in zweiter Ordnung tut, was auf zusätzliche Spinanteile der Higgsfelder zurückzuführen ist. Die Arbeit hat damit gezeigt, daß die durch das Higgsfeld vermittelte Kraft die Eigenschaften einer gravitativen Wechselwirkung besitzt. Daraus ergibt sich, daß nun folgende Punkte interessant sind: 1) Die in dieser Arbeit nicht betrachteten antisymmetrischen Anteile der Higgsfeldgleichung sollten auf ihre physikalische Relevanz untersucht werden, um eventuell entstehende Torsions und Nichtmetrizitätsanteile aufzuzeigen. 2) Die durch den Divergenzterm auftretenden Unterschiede der zweiten Ordnung der Spin-Eichtheorie mit der klassischen Theorie sollten genauer untersucht werden, um mögliche meßbare Unterschiede offen zu legen und die Interpretation des A m n a a-terms zu klären 3) Die in der Spin-Eichtheorie mögliche mikroskopische Betrachtungsweise sollte man quantentheoretisch formulieren und alle der Spin-Eichtheorie eigenen Felder quantisieren. 4) Der in dieser Arbeit betrachtete Iso-skalare Fall sollte Iso-vektoriell verallgemeinert werden, um so eine Vereinheitlichung mit den anderen drei Wechselwirkungen zu ermöglichen
Report-no: UFTP-492/1999 Journal-ref: Phys.Rev. C61 (2000) 024909 We investigate flow in semi-peripheral nuclear collisions at AGS and SPS energies within macroscopic as well as microscopic transport models. The hot and dense zone assumes the shape of an ellipsoid which is tilted by an angle Theta with respect to the beam axis. If matter is close to the softest point of the equation of state, this ellipsoid expands predominantly orthogonal to the direction given by Theta. This antiflow component is responsible for the previously predicted reduction of the directed transverse momentum around the softest point of the equation of state.
Bei einigen Krankheiten bekommt die Knochenmarkstransplantation bzw. die Transplantation peripherer Blutstammzellen als Therapiemöglichkeit eine wachsende Bedeutung. Trotz aller Fortschritte birgt diese Therapieform die Gefahr von schwer zu kontrollierenden Komplikationen (Graft-versus-Host-Krankheit, Host-versus-Graft-Krankheit, lebensbedrohliche Infektionen), die die Behandlungsmöglichkeiten einschränken. Die Eigenschaften und Fähigkeiten von Natürlichen Killer-Zellen (NK-Zellen) eröffnen vielversprechende Möglichkeiten, die Komplikationen einer Stammzelltransplantation besser zu kontrollieren. Dafür ist es notwendig, NK-Zellen in möglichst reiner Form und ausreichender Menge bereitzustellen. Seit einigen Jahren stehen verschiedene immunomagnetische Antikörper zur Verfügung, mit denen Zellen gezielt selektiert oder depletiert werden können. Allerdings sind die Herstellerangaben zu Versuchsbedingungen an experimentellen Ansätzen orientiert. Um die Antikörper im klinischen Bereich in entsprechenden Größenordnungen einzusetzen, sind Versuchsansätze in klinischen Größenmaßstäben nötig. In dieser Arbeit wird eine Methode zur immunomagnetischen T-Zell-Depletion bei der Herstellung von NK-Zell-Präparaten untersucht. Mit Hilfe von monoklonalen Antikörpern werden Zellen immunomagnetisch markiert und in einem starken Magnetfeld getrennt. Es wird ein etablierter Einzelantikörper („CD3 MicroBeads“) mit einem neuen Antikörper Kit („NK isolation kit“) verglichen. In der Versuchsreihe sollen die Wahl des Antikörpers, die Antikörpermenge, und die Flussgeschwindigkeit durchs Magnetfeld (Auftraggeschwindigkeit) hinsichtlich ihres Einflusses auf die T-Zell-Depletion, die T-Zell-Restkontamination nach Depletion und den NK-Zell-Ertrag untersucht werden. Bei einem der verwendeten Antikörper („NK isolation kit“) interessiert außerdem die NK-Zell-Reinheit des resultierenden NK-Zell-Präparates. Während die T-Zell-Depletion mit dem „NK isolation kit“ tendenziell größer ist als mit „CD3 MicroBeads“, unterscheiden sich beide Antikörper nicht signifikant in der T-Zell-Restkontamination. Mit „CD3 MicroBeads“ kann allerdings eine verlässlichere T-Zell-Restkontamination mit einer geringeren Schwankungsbreite der Ergebnisse erreicht werden. Weiterhin liefern „CD3 MicroBeads“ einen signifikant höheren NK-Zell-Ertrag, da mit dem „NK isolation kit“ abhängig von der eingesetzten Antikörpermenge und der damit zusammenhängenden Antikörperkonzentration mehr NK-Zellen in der magnetischen Trennsäule verloren gehen. Dabei deutet sich an, dass bei einer höheren Auftraggeschwindigkeit der NK-Zell-Verlust geringer ist. Die Menge der eingesetzten Antikörper korreliert beim „NK isolation kit“ positiv mit der erzielten NK-Zell-Reinheit. Die vorgelegten Ergebnisse zeigen, dass sowohl mit einem Einzelantikörper („CD3 MicroBeads“) also auch mit einem Antikörper-Cocktail („NK isolation kit“) eine ausreichende Depletion von T-Zellen in einem klinischen Maßstab möglich ist. Bei beiden Verfahren kann mit einem Separationsschritt eine höhere T-Zell-Depletion erreicht werden, als mit anderen oder ähnlichen in der Literatur beschriebenen Verfahren. Während mit dem „NK isolation kit“ in einem Depletionsschritt NK-Zell-Präparate mit bis zu 90%iger Reinheit hergestellt werden können, müsste sich nach der T-Zell-Depletion mit „CD3 MicroBeads“ noch eine NK-Zell-Positivselektion anschließen. Während die Auftraggeschwindigkeit von untergeordneter Bedeutung ist, spielt die eingesetzte Antiköpermenge beim „NK isolation kit“ eine signifikante Rolle.
REVTEX, 27 pages incl. 10 figures and 3 tables; Phys. Rev. C (in press) Journal-ref: Phys.Rev. C62 (2000) 064906. We study the local equilibrium in the central V = 125 fm3 cell in heavy-ion collisions at energies from 10.7 A GeV (AGS) to 160 A GeV (SPS) calculated in the microscopic transport model. In the present paper the hadron yields and energy spectra in the cell are compared with those of infinite nuclear matter, as calculated within the same model. The agreement between the spectra in the two systems is established for times t >= 10 fm/c in the central cell. The cell results do not deviate noticeably from the infinite matter calculations with rising incident energy, in contrast to the apparent discrepancy with predictions of the statistical model (SM) of an ideal hadron gas. The entropy of this state is found to be very close to the maximum entropy, while hadron abundances and energy spectra differ significantly from those of the SM.
Es wurden Daten von 140 Patienten mit penetrierendem Thorax- und Abdominaltrauma des Zeitraums von 1986 - 06/1996 retrospektiv ausgewertet. Die Patienten wurden anhand einer Reihe von Beurteilungskriterien hinsichtlich Unfallhergang, Verletzungslokalisation, Versorgungsstrategie und Komplikationen während des stationären Aufenthaltes sowie der Letalität untersucht. Von besonderem Interesse waren die prophylaktischen und therapeutischen Antibiotikagaben. Es konnte eine Übersicht hinsichtlich der präklinischen und klinischen Patientenversorgung mit penetrierenden Thorax- und Abdominaltraumen geschaffen werden. Dabei zeigte sich eine mangelhafte Dokumentation zur Erarbeitung der Versorgungsstrategie (Anamnese, Verlauf, etc.) sowie gehäuftes Fehlen einzelner Dokumentationsbögen (Notarzteinsatzprotokoll, Laborbericht, Op-Bericht, etc.). Eine vollständige Bewertung der Versorgungsqualität - und quantität war somit nicht immer möglich. Vorraussetzung zur Identifizierung von Problemen und nachfolgend möglicher Einführung prozessverbessernder Maßnahmen ist jedoch eine solide Datengrundlage. Penetrierende Thorax- und Abdominaltraumen entstanden vor allem im Rahmen von Gewalttaten und Suizidversuchen. Fast die Hälfte der Unfälle ereigneten sich im jungen Erwachsenenalter. Es handelte sich zumeist um isolierte Stichverletzungen bei überwiegend männlichen Patienten. Konkrete Verletzungsmechanismen waren Stich- und Schussverletzungen. Zweihöhlenverletzungen wurden in 10% der Fälle diagnostiziert. Pfählungsverletzungen kamen nicht vor. Es wurden 95% der Patienten chirurgisch behandelt. Davon wurden 67% operiert. Insgesamt 5% der Patienten konnten konservativ behandelt werden. Isolierte penetrierende Thoraxverletzungen wurden bei 46% der Patienten beobachtet. Männer waren deutlich häufiger betroffen wie Frauen. Das durchschnittliche Alter betrug für diese Patienten 33,8 Jahre. An thorakalen Verletzungen wurden überwiegend Pneumo- und / oder Hämatothoraces beobachtet (44% bzw. 31%). Es zeigten sich keine Spannungspneumothoraces. In 6% der Fälle bestanden Verletzungen großer herznaher extrapulmonaler Gefäße. In 12,5% aller penetrierenden Thoraxtraumata wurde das Herz oder der Herzbeutel verletzt. Die Mehrzahl der Patienten (64%) mit Thoraxtrauma konnte mit Thoraxdrainagen suffizient behandelt werden. 4 Patienten konnten unter stationärer Beobachtung primär konservativ behandelt werden. Die Notfallthorakotomie war in 12 Fällen (17%) indiziert. Rethorakotomien waren nicht notwendig. Der durchschnittliche Verletzungsschweregrad I.S.S für Patienten mit Thoraxtrauma betrug 12,6. Die durchschnittliche Gesamthospitalisationszeit bei Patienten mit isolierter thorakaler Verletzung betrug 8,4 Tage. Bei 47 % der Patienten wurde lediglich das Abdomen verletzt. Männer waren deutlich häufiger betroffen wie Frauen. Das durchschnittliche Alter betrug für diese Patienten 30,9 Jahre. Drei Patienten (4,5%) wurden einer konservativen Verlaufsbeobachtung („abdominal observation“) zugeführt. Alle übrigen Patienten (95%) wurden einer operativen Exploration (Laparoskopie / Laparotomie) unterzogen. Die Indikation zur diagnostischen Peritoneallavage wurde nur im Zeitraum 1986 - 1992 gestellt und zunehmend von der Abdomen-Sonographie abgelöst. Es zeigte sich im Beobachtungszeitraum 1992 -1996 ein Rückgang der obligatorischen Laparotomien und zunehmend das Vorgehen der erweiterten Diagnostik mittels Probelaparoskopie. Die Rate positiver Probelaparoskopien lag bei 37,5 %. Die Rate negativer Laparotomien betrug 24%. Bei 6% waren Relaparotomien notwendig. Der durchschnittliche Verletzungsschweregrad I.S.S für Patienten mit Abdominaltrauma betrug 9,2. Die Patienten konnten nach einer im Vergleich zum Thoraxtrauma durchschnittlich längeren Hospitalisationszeit von 11,5 Tage die Klinik wieder verlassen. Es wurden 7% der Patienten mit einem penetrierenden thorakoabdominellen Trauma erfasst. Das Durchschnittsalter betrug 34,4, der durchschnittliche I.S.S. war 22,9. Bei 5 Patienten (50%) war das Zwerchfell mitbetroffen. Alle Patienten wurden zügig laparotomiert und zeigten bei der operativen Exploration eine intrabdominelle Organverletzung. 90% erhielten eine Thoraxdrainage. Die Rate kombinierter Thorakotomie und Laparotomie betrug 20%. Es wurde zuerst die Laparotomie durchgeführt. Postoperativ kam einmal zu einem Spannungspneumothorax. Die Letalitätsrate betrug beim penetrierenden thorakoabdominellen Trauma 10%. Bei insgesamt 34% der Patienten traten postoperativ z.T. mehrere Komplikationen auf. Bei 7 konservativ behandelten Patienten verlief der stationäre Aufenthalt unkompliziert. Die postoperative Morbidität betrug insgesamt 36,8 %. Es handelte sich in 66,7% um definitive lokalisierbare Infektionen wie postoperative Wundinfektionen oder Pneumonien. Das entspricht bei 140 Patienten mit penetrierendem Trauma einer Infektionsrate von 11,4%. Die Inzidenz posttraumatischer Infektionen beim isolierten Thoraxtrauma betrug 17%, beim isolierten Abdominaltrauma 18%. Das thorakoabdominelle Trauma zeigte keine höhere Infektionsrate gegenüber dem isolierten Thorax- oder Abdominaltrauma. Im Gesamtbeobachtungszeitraum wurden etwa drei Viertel der Patienten antibiotisch behandelt. Es handelte sich in 81% der Fälle um Monotherapien und in 19% um Kombinationstherapien. Knapp 50% aller Verordnungen entfielen auf 2 Antibiotikaregimes. Berücksichtigt man die in den Kombinationstherapien verordneten Substanzen einzeln, so ergaben die vier meistverordnete Antibiotikapräparate zusammen 68,9%. Die meisten Antibiotika wurden in der Altersgruppe zwischen 21 und 30 Jahren gegeben. Die durchschnittliche Dauer der Antibiotikaverordnungen betrug 5,1 Tage. 80% der Antibiotikaverordnungen wurden intra- und direkt postoperativ, 86% wurden initial und fortlaufend intravenös, verabreicht. Es wurden 85% als Prophylaxe und 15% als Therapie eingesetzt. Die Indikation zur perioperative Antibiotika-Prophylaxe wurde beim Thoraxtrauma in 43 Fällen (56%), beim Abdominaltrauma in 49 Fällen (68%) und beim thorakoabdominellen Trauma in 8 Fällen (70%) gestellt. 88% der verordneten Antibiotika-Prophylaxen waren erfolgreich. Bei insgesamt 83% der Patienten wurde die perioperative Antibiotika-Prophylaxe aufgrund des erhöhten Risikos einer bakteriellen Kontamination des OP-Gebietes länger als 1 Tag durchgeführt. 42% dieser Patienten erhielten die perioperative Antibiotika-Prophylaxe 1-3 Tage weiter. In 57% der Fälle wurde die Antibiotika-Prophylaxe länger als 3 Tage weitergeführt. Die durchschnittliche Dauer der Antibiotika-Prophylaxen betrug 4,6 Tage. In 7% der Fälle mit prophylaktischen Antibiotikagaben traten Infektionen auf. Sie wurden als „Versager“ der Antibiotika-Prophylaxe bezeichnet. Insgesamt wurden 12% der Patienten nach noch nicht abgeschlossener Behandlung vorzeitig verlegt oder auf eigenen Wunsch entlassen. Die durchschnittliche Hospitalisationszeit betrug insgesamt 10,9 Tage. 75% der Patienten hatten einen I.S.S < 15. Der durchschnittliche Gesamtverletzungsschweregrad I.S.S betrug 11,75. Zwei Patienten verstarben an den Folgen ihrer Verletzungen. Die Todesursachen war der nicht beherrschbare Verlust von intravasalem Volumen. Die Patienten verstarben noch am Aufnahmetag im Schockraum an Herzkreislaufversagen im Volumenmangelschock. Dies ergibt bei diesem Patientenkollektiv eine Letalitätsrate von 1,4%. Der Verletzungsschweregrad I.S.S betrug 38 und 27.
Die wissenschaftliche Recherche im Internet gestaltet sich als sehr schwierig, will man relevante Informationen schnell finden. Das Problem ist nicht der Mangel an Informationen sondern vielmehr das Übermaß davon. Außer der Quantität ist es für ein Mitglied einer Hochschule wichtig auf, von der Universität lizenzierte Webseiten zugreifen zu können. Aus einem Suchwerkzeug, wie zum Beispiel Google, kann ein Informationsanbieter nicht erkennen ob der dahinter stehende Benutzer berechtigt ist einen Artikel anzufordern. Ein anderer Aspekt worauf ein Wissenschaftler bei seiner Suche Wert legt, ist die Qualität eines Artikels. Am besten eignen sich hier wissenschaftliche Artikel aus renommierten und angesehenen Zeitschriften. Aus diesem Hintergrund heraus haben sich Informationsanbieter Gedanken gemacht wie man qualitativ hochwertige Artikel schnell in einer Recherche einbinden kann. Die Module, die Entwickelt wurden bilden die Basis für die Software die diese Entwicklungen zusammenfügt und miteinander harmonieren lässt. Für die Identifikation von elektronischen Dokumenten wurde unter anderem der DOI (Digital Object Identifier) entwickelt. Außerdem wichtig für unsere endgültige Software ist der OpenURL Standard. Damit werden die meisten Probleme die bei der mit einer herkömmlichen URL bestehen gelöst. Mit diesem Standard wird anhand von Metadaten eine eindeutige Identifikation eines Dokumentes vorgenommen die zu einem Dokument verlinkt, auch wenn sich seine eigentliche URL geändert hat. Die Diplomarbeit zeigt uns einen Überblick über diese Module. Dieser Lösungsweg führt uns zu einer Technologie die angewandt wird um unser Ausgangsproblem zu lösen. In dieser Software sind, anhand eindeutiger Identifikation, wissenschaftliche Dokumente und Artikel permanent abrufbar ohne der Gefahr einen Artikel durch Änderung seiner URL zu verlieren.
To be published in J. Phys. G - Proceedings of SQM 2004 : We review the results from the various hydrodynamical and transport models on the collective flow observables from AGS to RHIC energies. A critical discussion of the present status of the CERN experiments on hadron collective flow is given. We emphasize the importance of the flow excitation function from 1 to 50 A.GeV: here the hydrodynamic model has predicted the collapse of the v2-flow ~ 10 A.GeV; at 40 A.GeV it has been recently observed by the NA49 collaboration. Since hadronic rescattering models predict much larger flow than observed at this energy we interpret this observation as evidence for a first order phase transition at high baryon density r b. Moreover, the connection of the elliptic flow v2 to jet suppression is examined. It is proven experimentally that the collective flow is not faked by minijet fragmentation. Additionally, detailed transport studies show that the away-side jet suppression can only partially (< 50%) be due to hadronic rescattering. Furthermore, the change in sign of v1, v2 closer to beam rapidity is related to the occurence of a high density first order phase transition in the RHIC data at 62.5, 130 and 200 A.GeV.
We investigate hadron production and transverse hadron spectra in nucleus-nucleus collisions from 2 A·GeV to 21.3 A·TeV within two independent transport approaches (UrQMD and HSD) based on quark, diquark, string and hadronic degrees of freedom. The enhancement of pion production in central Au+Au (Pb+Pb) collisions relative to scaled pp collisions (the ’kink’) is described well by both approaches without involving a phase transition. However, the maximum in the K+ p+ ratio at 20 to 30 A·GeV (the ’horn’) is missed by ~ 40%. Also, at energies above ~5 A·GeV, the measured K± mT-spectra have a larger inverse slope than expected from the models. Thus the pressure generated by hadronic interactions in the transport models at high energies is too low. This finding suggests that the additional pressure - as expected from lattice QCD at finite quark chemical potential and temperature - might be generated by strong interactions in the early pre-hadronic/partonic phase of central heavy-ion collisions. Finally, we discuss the emergence of density perturbations in a first-order phase transition and why they might affect relative hadron multiplicities, collective flow, and hadron mean-free paths at decoupling. A minimum in the collective flow v2 excitation function was discovered experimentally at 40 A·GeV - such a behavior has been predicted long ago as signature for a first order phase transition.
We investigate hadron production as well as transverse hadron spectra from proton-proton, proton-nucleus and nucleus-nucleus collisions from 2 A·GeV to 21.3 A·TeV within two independent transport approaches (HSD and UrQMD) that are based on quark, diquark, string and hadronic degrees of freedom. The comparison to experimental data on transverse mass spectra from pp, pA and C+C (or Si+Si) reactions shows the reliability of the transport models for light systems. For central Au+Au (Pb+Pb) collisions at bombarding energies above ~5 A·GeV, furthermore, the measured K± transverse mass spectra have a larger inverse slope parameter than expected from the default calculations. We investigate various scenarios to explore their potential effects on the K± spectra. In particular the initial state Cronin effect is found to play a substantial role at top SPS and RHIC energies. However, the maximum in the K+/..+ ratio at 20 to 30 A·GeV is missed by 40% and the approximately constant slope of the K± spectra at SPS energies is not reproduced either. Our systematic analysis suggests that the additional pressure - as expected from lattice QCD calculations at finite quark chemical potential µq and temperature T- should be generated by strong interactions in the early pre-hadronic/partonic phase of central Au+Au (Pb+Pb) collisions.
We investigate the effects of strong color fields and of the associated enhanced intrinsic transverse momenta on the phi-meson production in ultrarelativistic heavy ion collisions at RHIC. The observed consequences include a change of the spectral slopes, varying particle ratios, and also modified mean transverse momenta. In particular, the composition of the production processes of phi-mesons, that is, direct production vs. coalescence-like production, depends strongly on the strength of the color fields and intrinsic transverse momenta and thus represents a sensitive probe for their measurement.
Im Rahmen der vorliegenden wissenschaftlichen Abhandlung wurden die Ergebnisse der Angioplastie von Beckenarterienstenosen oder –okklusionen analysiert. Hierbei wurde insbesondere die neue Einteilung von Gefäßläsionen zur Klassifikation nach dem TransAtlantic Inter-Society Consensus (TASC) Dokument herangezogen als auch der Stellenwert der Excimer-Laser assistierten Angioplastie bei diesen Läsionen evaluiert. Die Bedeutung einer kritischen Betrachtung der interventionellen Möglichkeiten in der Therapie der peripheren arteriellen Verschlusskrankheit (pAVK) liegt zum einen in der weiten Verbreitung dieser Erkrankung als auch in der zunehmenden Prävalenz. Als eindeutige Vorteile der interventionellen Methoden im Vergleich zu operativen Verfahren können die Durchführung in Lokalanästhesie, die geringere Mortalität und Morbidität und der kürzere Krankenhausaufenthalt gelten. Die Rekanalisation von Arterienverschlüssen bereitete jedoch lange Zeit Schwierigkeiten und zeigte die therapeutischen Grenzen der konventionellen Ballonangioplastie auf. Dies führte zur Entwicklung von verschiedenen abtragenden („Debulking“) Verfahren wie z. B. den Excimer-Laser. Mit ihm konnten auch chronische, kalzifizierte Gefäßokklusionen erfolgreich therapiert werden. In dem Zeitraum von Januar 1999 bis Dezember 2001 wurden 91 Patienten mit Gefäßläsionen im Bereich des Beckens therapiert. Dabei handelte es sich um 133 Stenosen, 20 Okklusionen und eine Dissektion. 142 Stents wurden im Rahmen der Interventionen implantiert. Präinterventionell erfolgte die Klassifizierung der Gefäßläsionen nach dem TransAtlantic Inter-Society Consensus (TASC), die Erhebung einer Medikamenten- und Risikofaktoren-Anamnese sowie die Ermittlung der Gehstrecke und der klinischen Stadieneinteilung nach Fontaine. Die postinterventionellen Kontrolluntersuchungen erfolgten in einem Zeitraum von einem Tag nach dem Eingriff sowie nach 1, 3, 6, 12 Monaten und dann jährlich. Im Zuge der Nachuntersuchung wurden neben der aktuellen Anamnese auch eine Überprüfung der Risikofaktoren und der aktuellen Medikamentenanamnese durchgeführt. Zusätzlich beinhaltete die Kontrolluntersuchung die farbkodierte Duplex-Untersuchung der unteren Extremitäten als auch die Bestimmung des Tibio-brachialen Quotienten als Index für den Grad der Durchblutungsstörung. Alle Kontrolluntersuchungen wurden durch die klinischen Partner des Gefäßzentrums (Abt. für Angiologie, Abt. für vaskuläre und endovaskuläre Gefäßchirurgie) der Universitätsklinik Frankfurt durchgeführt. Bei 36, der insgesamt 154 durchgeführten Interventionen, kam der Excimer-Laser zum Einsatz. 55% der Okklusionen (11 von 20) wurden mittels Excimer-Laser therapiert. Trotz des hohen Anteils an Gefäßverschlüssen waren die sekundären Offenheitsraten nach 24 Monaten nahezu identisch mit denen des gesamten Patientenkollektivs (97,14% zu 97,37%). Der technische Erfolg betrug 98,1%, die gesamte Komplikationsrate belief sich auf 3,9%. Die von uns erzielten Ergebnisse liegen im Wertebereich der bislang publizierten Arbeiten und sprechen für den Einsatz der Angioplastie bei Iliakalarterienläsionen. Dies gilt sowohl für Stenosen, als auch für Okklusionen. Lediglich Läsionen im Bereich der A. iliaca externa bei weiblichen Patienten lieferten deutlich schlechtere Ergebnisse (primäre Offenheitsraten nach 24 Monaten: 81,82% Frauen; 90,79% gesamt). Des Weiteren war ein multisegmentaler Gefäßbefall mit einer erhöhten Reinterventionsrate vergesellschaftet. 70% der Läsionen, welche einer Reintervention bedurften, waren multisegmental. Insbesondere nicht passierbare Läsionen stellen das Einsatzgebiet für den Excimer-Laser dar. Die etwas schlechteren primären Offenheitsraten (85,71% zu 90,79%) der Laser-PTA Gruppe im Vergleich zu unserer Gesamt-Gruppe beruhen auf dem größeren Anteil an langstreckigen Gefäßverschlüssen in dieser Gruppe (30,6% zu 7,7%). Die sekundären Offenheitsraten lassen hingegen keine signifikanten Unterschiede mehr erkennen (97,14% zu 97,37%). Die Ergebnisse dieser Arbeit zeigen, dass die Rekanalisation mittels Angioplastie bei Beckenarterienläsionen sowohl im Falle der AIC als auch der AIE, mit hohem technischen und klinischen Erfolg durchgeführt werden können. Insbesondere die Excimer-Laser assistierte Angioplastie erweitert das Anwendungsspektrum auf langstreckige, chronische Beckenarterien-verschlüsse, mit ermutigenden Resultaten. Die perkutane Rekanalisation von Beckenarterienläsionen stellt somit eine echte Alternative zur chirurgischen Therapie dar und sollte primär angestrebt werden.
Die Auswertung der Stratigraphien und Keramikinventare des Final Stone Age aus dem südwestlichen Tschadbecken führte zu einer zeitlichen Gliederung der Inventare. Durch die vorgestellten Analysen zu Merkmalen der Keramikform, -technik und -verzierung wurden zwei Stilgruppen - der ältere und der jüngere Gajigannastil - definiert und beschrieben. Für die jüngere Gajiganna Stilphase war eine weitere Unterteilung in drei Stufen möglich, die die keramische Entwicklung zwischen 1.500 BC bis ca. 800 BC gliedern. Das gelang bisher noch nicht mit Keramik der älteren Stilphase. Die Analyse der Grabungsprofile brachte Hinweise zu Speichergruben, ermöglicht Spekulationen über Lehmbauten in Fundplätzen der jüngeren Gajigannaphase und läßt Rückschlüsse auf eine stärkere Geländeprofilierung als die heute anzutreffende zu. Die Einordnung der begangenen Plätze in die Stilgruppen zeigte keine wesentlichen Unterschiede bei der Wahl der Siedlungsplätze. Die Randlage zu den vermutlich nicht nur saisonal gefluteten Tonebenen ist für beide bezeichnend. Die Siedlungsplätze boten in dieser Lage einige Vorteile. Die Sandgebiete dienten als Weiden für Rinder. Fischfang konnte an den Ufern der überschwemmten Gebiete betrieben werden, die ebenfalls ein reiches Reservoir an Wildpflanzen boten, die das Nahrungsangebot ergänzten. Ein Vergleich der Inventare mit anderen westafrikanischen Fundplätzen zeigt, daß die ältere Keramikphase der Gajiganna-Gruppe in einen überregionalen Verzierungstil eingebettet ist, der durch Winkelbänder und dreieckige Einstiche charakterisiert wird und sich über ein weites Gebiet zwischen Sudan im Osten und Niger im Westen spannt. Die hier vorgestellte Keramik der Phase I ist der südlichste Vertreter dieses Verzierungshorizontes. Die jüngere Stilphase konnte bisher nur kleinräumig nachgewiesen werden. Ihr Verbreitungsgebiet scheint auf das Tschadbecken beschränkt zu sein. Das mag entweder im gegenwärtigen Forschungsstand oder in einer um die Mitte des zweiten Jahrtausends beginnenden Regionalisierung der Keramikstile begründet sein. Die einzelnen Ergebnisse flossen in eine modellhafte Abhandlung zur Besiedlungsgeschichte des südwestlichen Tschadbeckens ein. Diese wäre unvollständig gewesen ohne die Ergebnisse der Archäobotanik und der Archäozoologie. Der Nachweis von domestizierter Hirse in den Fundplätzen der jüngeren Gajiganna-Gruppe ab der Stufe 2b ist ein wichtiges Ergebnis, das dazu beiträgt, die Veränderungen zu erfassen, die sich hinter dem Stilwechsel in den Keramikinventaren verbergen. Es scheint so, als hätte sich eine Verschiebung in der Gewichtung von Viehzucht zu Ackerbau vollzogen. Eine Veränderung des Siedlungsverhaltens mit engerer Bindung an die genutzte Fläche könnte eher die Vorbedingung als die Folge gewesen sein. Größere Platzkontinuität ist bereits in Phase 2a zu vermuten, sichtbar gemacht durch die hier erstmalig auftretenden komplexen Stratigraphien und wahrscheinlich begründet durch die verstärkte Nutzung von Wildgetreide. In Phase 2b wird domestiziertes Pennisetum bei einer weitgehend seßhaften Bevölkerung eingeführt. Kein radikaler Wechsel ist in den Strategien der Subsistenzwirtschaft zu beobachten. Stattdessen führt ein allmählicher Prozeß über einige hundert Jahre vom Viehzüchter zum Ackerbauern. Die Beziehungen zwischen den Fundstellen nördlich der Mandaraberge und denen im Gebiet um Zilum einerseits und den hier vorgestellten Fundstellen andererseits deuten auf eine regional in randliche Siedlungsgebiete verschobene Weiterentwicklung bis in die Eisenzeit, während die ehemaligen Kerngebiete wahrscheinlich von anderen Siedlern aus den Firki-Ebenen heraus besiedelt wurden. Offen bleiben müssen Fragen zu Hausbau, Siedlungsstruktur und Größe der Nutzflächen, die jeweils zu einer Siedlung gehörten. Auch fehlen noch hinreichende Daten, um die Beziehungen der Siedlungen untereinander zu erfassen und eventuell vorhandene Netzwerkstrukturen auszuarbeiten. Hier ergeben sich weitere Forschungsfelder, die zu neuen Erkenntnissen zur Stellung des Gajigannakomplexes im Kontext der westafrikanischen Prähistorie führen werden.
In this paper, I investigate more closely the contribution of modal operators to the semantics of comparatives and I show that there is no need for a maximality or minimality operator. Following Kratzer s (1981, 1991) analysis of modal elements, I assume that the meaning of a modal sentence is dependent on a conversational background and an ordering source. For comparative environments, I demonstrate that the ordering source reduces a set of possible degrees to a single degree that is most (or least) wanted or expected, i.e., maximality and minimality readings of comparative constructions are an effect of the pragmatic meaning of the modal.
Der Transport von antigenen Peptiden in das Lumen des endoplasmatischen Retikulums ist ein zentraler Vorgang bei der Antigenprozessierung und ihrer MHC-Klasse-I-vermittelten Präsentation auf der Zelloberfläche. Intrazelluläre Translokation über die ER-Membran erfolgt mit Hilfe von TAP, eines ATP-abhängigen ABC-Transporters. Einer ATP-unabhängigen Substratbindung folgt der eigentliche Transportschritt, dessen Energetisierung einer ATP-Spaltung bedarf. In der vorliegenden Dissertation wurde die ATPase-Aktivität des TAP-Komplexes aufgeklärt und detailliert charakterisiert. Es wurde eine schnelle und schonende Isolierungs- und Rekonstitutionsmethode entwickelt, die es erlaubt, den partiell aufgereinigten TAP-Komplex in Liposomen einzubauen und Funktionsstudien in vitro durchzuführen. Zum ersten Mal war es damit möglich, die Peptid-stimulierte TAP-spezifische ATP-Hydrolyse direkt zu beobachten und deren kinetische Parameter zu bestimmen. Eine direkte Korrelation zwischen Bindungsaffinität des Peptides zu TAP (Bindungskonstante KD) und der halbmaximalen Stimulation der ATPase-Aktivität von TAP (Km,pep) wurde festgestellt. Die Versuche mit den verzweigten Peptiden zeigten, dass Peptide, die nicht transportiert werden können, keine Stimulation der ATPase-Aktivität hervorrufen. Somit wurde die allosterische Interaktion zwischen Peptidbindung, ATP-Hydrolyse und Peptidtransport nachgewiesen. Nach der Entfernung des peptidexportierenden Sec61-Komplexes aus den Proteoliposomen konnte die vorläufige Stöchiometrie des Transportschrittes bestimmt werden. Eine weitere Anwendung fand die Rekonstitutionsmethode bei der Aufklärung des molekularen Wirkungsmechanismus des TAP-Inhibitors US6, indem der TAP-Komplex zusammen mit der aktiven ER-luminalen Domäne von US6 in die Proteoliposomen rekonstituiert wurde. Die Bindung von US6(delta147-183) an die ER-luminalen Bereiche von TAP blockiert die ATP-Bindung an die zytoplasmatischen NBD des Transporters. Die Peptid-induzierte ATP-Hydrolyse wird durch die Inhibition der ATP-Bindung unterbunden, wohingegen die Peptid- und ADP-Bindung von TAP nicht beeinflusst sind.
Abschließend sollen hier die wichtigsten, neuen Ergebnisse herausgestellt und ein Ausblick auf mögliche zukünftige Studien gegeben werden. In dieser Arbeit wurden vorwiegend Schwerionenkollisionen bei Einschußenergien zwischen ungefähr 40 MeV/Nukleon und 400 MeV/Nukleon mit dem Quantenmolekulardynamik-Modell untersucht. Ein Schwerpunkt war hierbei die Beschreibung der Umkehr des kollektiven, transversalen Seitwärtsflusses in der Reaktionsebene. Der negative Seitwärtsfluß, der bei niedrigen Energien der Größenordnung kleiner als 100 MeV/Nukleon durch die attraktiven Wechselwirkungen verursacht wird, verschwindet bei Steigerung der Einschußenergie bei der Balance-Energie E-bal. einsetzt. Oberhalb dieser dominieren die repulsiven Wechselwirkungen, so daß positiver transversaler Fluß einsetzt. Sowohl die negativen Flußwinkel als auch der Übergang hin zu positiven Flußwinkeln konnte fur eine große Anzahl verschiedener Energien und Stoßparameter mit unterschiedlichen Zustandsgleichungen für die Systeme 40-20-Ca + 40-20-Ca und 197-79 Au + 197-79 Au mit dem Quantenmolekulardynamik-Modell beschrieben werden. Ziel muß es bleiben, die verschiedenen, grundlegenden physikalischenWechselwirkungen eindeutig und unabhängig voneinander zu bestimmen. Ein erfolgversprechender Weg sind die hier vorgestellten Methoden und die Hinweise zur ad quaten Interpretation experimenteller Ergebnisse. Die Abhängigkeit der Balance-Energien von der Masse des betrachteten Systems ist sehr sensitiv auf den Nukleon-Nukleon Wirkungsquerschnitt im Medium. Hier wurde systematisch gezeigt, daß die Balance-Energien stark vom Stoßparameter abhängen. Die Zunahme der Balance-Energie mit dem Stoßparameter ist ungefähr linear. Für das System Ca+Ca kann sich die Balance-Energie beim Übergang von zentraleren zu mittleren Stoßparametern mehr als verdoppeln. Daher ist für die Interpretation der gemessenen Balance-Energien in bezug auf eine Modifikation des nukleo- nischen Wirkungsquerschnitts im Medium oder der Zustandsgleichung eine genaue Kenntnis des Stoßparameters von größter Wichtigkeit. Vorläufige experimentelle Analysen scheinen die vorhergesagte Stoßparameterabhängigkeit sehr gut zu bestätigen [Wes 95]. Weiterhin hat sich herauskristallisiert, daß bei der Berücksichtigung impulsabhängiger Wechselwirkungen die Balance-Energien bei größeren Stoßparametern signifikant kleiner sind als für den Fall der Nichtberücksichtung. Daher konnten experimentelle Bestimmungen der Balance- Energien bei größeren Stoßparametern signifikante Hinweise auf die tatsächliche Bedeutung der impulsabhängigen Wechselwirkungen in diesem Energiebereich geben. Es wurde gezeigt, daß für schwere Systeme wie Au+Au die langreichweitige internukleare Coulomb-Wechselwirkung vor dem Kontakt der Kerne im Energiebereich der Balance-Energien nicht vernachlässigt werden darf. Die hervorgerufene Repulsion bewirkt eine Drehung des Systems. Während in diesem gedrehten System dynamischer negativer Fluß beobachtbar ist, ist er es nicht im Laborsystem. Die im gedrehten Kontaktbezugssystem bestimmten Balance- Energien fur Au+Au sind erwartungsgemäß kleiner als für Ca+Ca und nehmen mit wachsendem Stoßparameter zu. Ein neuartiger Zwei-Komponenten-Fluß konnte in semiperipheren Kollisionen von Ca+Ca be- schrieben und analysiert werden. Dabei wird in einem Ereignis in verschiedenen Rapiditätsbereichen gleichzeitig positiver und negativer transversaler Fluß möglich. Die wenig komprimierte Spektatorenmaterie, die vermehrt aus schwereren Fragmenten besteht, zeigt negativen Fluß bei großen Rapiditäten, wohingegen dieKompressionszone in Form von einzelnen Nukleonen positiven transversalen Fluß zeigt. Aufgrund der großen Sensitivität gegenüber den Systemparametern und der Zustandsgleichung lohnt es sich, diesen Effekt experimentell zu untersuchen. Beim Studium azimuthaler Verteilungen wurde deutlich, daß auch in den Balance-Punkten noch kollektiver Fluß in Form von azimuthaler Asymmetrie vorliegt. Im Gegensatz zur bekannten hochenergetischen Bevorzugung der Emissionswinkel senkrecht zur Reaktionsebene für Teilchen aus der Wechselwirkungszone wurde hier die bei kleineren Energien preferentielle Emission in die Reaktionsebene aufgezeigt. Diese nimmt mit der Teilchenmasse und dem Stoßparameter zu. Das systematische Studium der Anregungsfunktion dieser azimuthalen Asymmetrie könnte durch die Übergangsenergien, die durch den Wechsel von der preferentiellen Emission in die Reaktionsebene zu der Bevorzugung der Winkel senkrecht zur Reaktionsebene definiert sind, wertvolle, ergänzende Information zu den Balance-Energien liefern.
Im Rahmen dieser Dissertation wurde die Photophysik und die elektronische Struktur einer Klasse neuartiger Donator-Akzeptor-Ladungstransfer-Komplexe untersucht. Im Wesentlichen bestehen diese Verbindungen aus einem Ferrocen-Donator (Fc) und organischen Akzeptoren, die über B-N-Bindungen verbrückt sind, welche sich bei dieser Art von makromolekularen Systemen spontan bilden. Zentraler Gegenstand dieser Arbeit war die spektroskopische Untersuchung des Metall-zu-Ligand-Ladungstransfers (engl. Abkürzung: MLCT) im elektronischen Anregungszustand dieser kationischen Komplexverbindungen, die im Weiteren als „Fc-B-bpy“-Verbindungen bezeichnet werden. Die vorliegende Arbeit analysiert eine Vielzahl miteinander verwandter Fc-B-bpy-Derivate. Die Arbeit ist gegliedert in 1.) die Analyse der Absorptionsspektren vom UV- bis zum nahen Infrarot-Spektralbereich (250-1000 nm) von Lösungen, dotierten Polymer-Dünnfilmen und Einkristallen, 2.) die zeitaufgelöste optische Spektroskopie des angeregten Zustands auf der Pikosekunden-Zeitskala, 3.) die Analyse elektrochemischer Messungen an Lösungen, und 4.) die Auswertung quantenchemischer Berechnungen. Für die zeitaufgelösten Messungen wurde ein komplexes optisches Spektroskopie-System mit breitbandigen Femtosekunden-Pulsen sowie den entsprechenden zeitaufgelösten Detektionsmethoden (spektral gefilterte Weißlicht-Detektion) aufgebaut. Die Ergebnisse dieser Arbeit beweisen die Existenz eines MLCT-Übergangs mit fast vollständigem Übergang eines Fc-Donator-Elektrons zum B-bpy-Akzeptor bei optischer Anregung. Die vergleichenden Untersuchungen der spektroskopischen Eigenschaften verschiedener Derivate liefern wichtige Information für die Entwicklung neuartiger Derivate, einschließlich verwandter Polymere, mit verbesserten spektroskopischen Eigenschaften. Es wurden transiente Absorptionsmessungen bestimmter Fc-B-bpy-Derivate in Lösung nach gepulster Anregung der MLCT-Bande (bei 500 nm) über einen Zeitbereich von 0,1-1000 ps und einen Wellenlängenbereich von 460-760 nm vorgenommen. Aus den Messergebnissen geht hervor, dass die Relaxation aus dem angeregten MLCT-Zustand in den Grundzustand auf verschiedenen Zeitskalen geschehen kann, welche im Bereich zwischen ~18 und 900 ps liegen. Ein Vergleich verschiedener Derivate mit unterschiedlicher Flexibilität in der Konformation zeigt, dass die Starrheit der Bindungen zwischen Donatoren und Akzeptoren ein wesentlicher Faktor für die Lebensdauer des angeregten Zustands ist. Wenn die Akzeptorgruppen relativ frei rotieren können, ist es der Verbindung möglich, eine Geometrie einzunehmen, von der aus ein effizienter, strahlungsfreier Übergang in den Grundzustand erfolgen kann. Dieser Befund zeigt einen Weg auf, wie neuartige, verwandte Verbindungen mit größerer Lebensdauer das angeregten Zustands synthetisiert werden können, indem darauf geachtet wird, daß eine starre molekulare Architektur zwischen Donator und Akzeptor verwirklicht wird.
Invited talk at the International Workshop XXX on Gross Properties of Nuclei and Nuclear Excitations - Ultrarelativistic Heavy-Ion Collisions, Jan. 13-19, 2002, Hirschegg, Austria. Report-no: LBNL-49674. We discuss predictions for the pion and kaon interferometry measurements in relativistic heavy ion collisions at SPS and RHIC energies. In particular, we confront relativistic transport model calculations that include explicitly a first-order phase transition from a thermalized quark-gluon plasma to a hadron gas with recent data from the RHIC experiments. We critically examine the "HBT-puzzle" both from the theoretical as well as from the experimental point of view. Alternative scenarios are briefly explained.
Invited talk at the XXXIII International Symposium on Multiparticle Dynamics, Krakow, Poland, 5-11 Sept, 2003. 5 pages, 1 figure Journal-ref: Acta Phys.Polon. B35 (2004) 23-28. We review the recent developments on microscopic transport calculations for two-particle correlations at low relative momenta in ultrarelativistic heavy ion collisions at RHIC.
Invited talk at the 7th International Conference on Strangeness in Quark Matter, SQM 2003, Atlantic Beach, North Carolina, USA, 12-17 Mar, 2003. 11 pages, 12 figures. Journal-ref: J.Phys. G30 (2004) S139-S150. We review recent developments in the field of microscopic transport model calculations for ultrarelativistic heavy ion collisions. In particular, we focus on the strangeness production, for example, the phi-meson and its role as a messenger of the early phase of the system evolution. Moreover, we discuss the important e ects of the (soft) field properties on the multiparticle system. We outline some current problems of the models as well as possible solutions to them
Die frühe Entwicklung und Differenzierung der sympathischen Ganglien wird durch ein Netzwerk von proneuralen (Mash1/Cash1) und autonomen (Phox2a/b, dHand) Transkriptionsfaktoren kontrolliert. Diese Transkriptionsfaktoren induzieren direkt oder indirekt die Expression neuronaler (SCG10) und subtypspezifischer noradrenerger (TH, DBH) oder cholinerger (ChAT, VAChT) Gene. Die Analyse der frühen Genexpression im Ciliarganglion zeigte ein bemerkenswert ähnliches zeitliches Expressionsschema. Zwei bedeutende Unterschiede sind einerseits die nur transiente Expression noradrenerger Gene und andererseits die Abwesenheit des bHLH-Transkriptionsfaktors dHand, der selektiv in den sympathischen Ganglien exprimiert ist. Das Netzwerk der Transkriptionsfaktoren in den sympathischen Ganglien ist abhängig von einem BMP-Signal aus der dorsalen Aorta. BMPs sind notwendig und ausreichend für die Expression der genannten Transkriptionsfaktoren und damit für die Bildung der sympathischen Ganglien. Diese Arbeit zeigt, daß BMPs auch für die Entwicklung des Ciliarganglions notwendig und ausreichend sind. Fehlen BMPs, differenzieren die Vorläuferzellen nicht, wird BMP4 überexprimiert, differenzieren sie, anders als sympathische Vorläuferzellen im Brachialnerv, zu Zellen mit parasympathischem Phänotyp. Die vorliegenden Ergebnisse weisen auf eine Präspezifizierung von Ciliarvorläuferzellen und sympathischen Vorläuferzellen hin. Der bHLH-Transkriptionsfaktor dHand ist differentiell in sympathischen Vorläuferzellen exprimiert. Seine Expression ist notwendig für die noradrenerge Differenzierung, und die Überexpression im Ciliarganglion reicht aus, um in den Ciliarneuronen die Expression von TH/DBH zu erhalten. Verschiedene Arbeiten schlagen als möglichen Wirkmechanismus eine synergistische Interaktion von dHand und Phox2-Transkriptionsfaktoren vor. Ektopische BMP4-Expression induziert in einem Teil der generierten Neuronen die Expression von dHand. Interessanterweise reicht diese, durch BMP4 induzierte, dHand-Expression nicht aus, den relativen Anteil noradrenerger Neuronen innerhalb der ektopischen und der Ciliarneuronen zu erhöhen. Diese scheinbare Diskrepanz kann erklärt werden, wenn man annimmt, daß ein bestimmter Schwellenwert in der dHand-Funktion erreicht werden muß. Dieser Schwellenwert könnte durch unterschiedliche dHand-Expression, induziert durch BMPs, durch posttranskriptionelle Kontrolle der dHand-Funktion, oder durch unterschiedliche Expression von Cofaktoren in unterschiedlich präspezifizierten Vorläuferzellen reguliert werden. In Zellen, in denen die Konzentration an aktivem dHand einen gewissen Schwellenwert übersteigt, würde dann gemeinsam mit Phox2a/b die noradrenerge Genexpression induziert oder erhalten werden.
Die vorliegende Arbeit beschäftigt sich mit der Frage, inwieweit psychosoziale Belastungsfaktoren in Kindheit und Erwachsenenalter Einfluss auf Krankheitsentstehung und Verlauf der interstitiellen Cystitis (IC) haben. Als Testinstrumente fanden die MSBA (Mainzer Strukturierte Biographische Anamnese), das BSI (Brief Symptom Inventory) sowie ein IC-spezifischer Symptom- und Problem-Fragebogen Anwendung. Es erfolgte eine deskriptive Auswertung der Daten. An der Studie nahmen 30 Patienten teil, deren Symptomatik und Befunde die aktuellen Diagnosekriterien der IC erfüllen. Es zeigte sich ein erhöhtes Vorkommen wichtiger Kindheitsbelastungsfaktoren. Dazu zählen eine schlechte emotionale Bindung zu den Eltern bei mangelndem Geborgenheitsgefühl im Elternhaus, eine chronische Erkrankung eines Elternteils und körperliche Misshandlung. Sexueller Missbrauch spielte bei dieser Patientengruppe so gut wie keine Rolle. im Gesamtscore der Kindheitsbelastungsfaktoren liegen IC-Patienten ebenfalls weit über publizierten Durchschnittswerten für Stichproben gesunder Probanden. Zwischen Kindheitsbelastungsscore und klinischer IC-Symptomatik ergab sich keine signifikante Korrelation. Die aktuelle Sozialanamnese zeigte kein gehäuftes Vorkommen relevanter psychosozialer Belastungsfaktoren in den einzelnen Lebensbereichen. Die Lebensqualität ist durch die Krankheitssymptomatik stark eingeschränkt. Eine depressive Symptomatik gehörte in der Regel zum Krankheitsbild. Das BSI zeigte insgesamt erhöhte Werte für die subjektive Beeinträchtigung nahezu aller erfragten physischen und psychischen Symptome, insbesondere jedoch für Skalen Somatisierung, Ängstlichkeit und Phobische Angst. Zwischen Kindheitsbelastungsscore und Gesamtwert im BSI besteht ebenfalls keine signifikante Korrelation. Die Ergebnisse der Studie sprechen für eine psychosomatische Mitbeteiligung in der wahrscheinlich multifaktoriellen Genese der Interstitiellen Cystitis.
The wide-area deployment of WiFi hot spots challenges IP access providers. While new profit models are sought after by them, profitability as well as logistics for large-scale deployment of 802.11 wireless technology are still to be proven. Expenditure for hardware, locations, maintenance, connectivity, marketing, billing and customer care must be considered. Even for large carriers with infrastructure, the deployment of a large-scale WiFi infrastructure may be risky. This paper proposes a multi-level scheme for hot spot distribution and customer acquisition that reduces financial risk, cost of marketing and cost of maintenance for the large-scale deployment of WiFi hot spots.
Thema dieses Beitrags ist zum einen eine kritische Würdigung des Flächentarifvertrages (FTV) im Hinblick auf seine Regelungsdichte und zum anderen die theoretische Analyse eines Elements des Flexibilisierungspotentials des FTV, namlich der Öffnungsklausel, unter Berücksichtigung der Insider-Outsider-Problematik. Im Ergebnis kommt dieser Beitrag zu dem Schluß, daß der FTV nicht überholt, wohl aber dringend und umfassend überholungsbedürftig ist. Wichtig erscheint eine differenzierende Betrachtung, denn nicht alle diskutierten Flexibilisierungsmaßnahmen führen notwendigerweise zu Beschäftigungsgewinnen. Die Regelungsdichte des FTV kommt unter anderem zum Tragen, wenn bisher tarifgebundene Unternehmen beispielsweise auf Grund einer überzogenen Lohnpolitik den FTV verlassen wollen. Sie müssen zunächst erhebliche Nachwirkungsfristen des FTV beachten, können aber häufig selbst als nicht (mehr) tarifgebundene Unternehmen keine Lohnabschlüsse mit ihrem Betriebsrat tätigen. Die Regelungsdichte wird zudem durch die Arbeitsgerichtsbarkeit verstärkt, beispielsweise durch das in diesem Beitrag kritisierte Urteil des Bundesarbeitsgerichts, welches unter bestimmten Voraussetzungen eine Verbandsklage als zulässig erklärt. Ein gründlich reformierter FTV, der einer erforderlichen Flexibilität auf der betrieblichen Ebene Rechnung trägt, weist eine Reihe von Vorteilen auf. Denn Lohnverhandlungen ausschließlich auf der betrieblichen Ebene führen dort zu teilweise beachtlichen Transaktionskosten, zwingen die Unternehmensleitung zur Offenlegung der Bücher (gegenüber dem Betriebsrat) und verstärken unter Umständen ein Insider-Outsider-Verhalten. Der Beitrag unternimmt im weiteren eine theoretische Analyse der Beschäftigungswirkungen des FTV und eines Haustarifvertrages (HTV) als mögliche Alternative. Das vorgeschlagene Modell integriert Insider-Outsider-Verhalten und die Möglichkeit einer Tariföffnungsklausel. Das Modell zeigt, daß aus theoretischer Sicht keine eindeutige Rangordnung zwischen HTV und FTV hinsichtlich ihrer Beschäftigungswirkungen besteht. Auch führt eine Tariföffnungsklausel nicht notwendigerweise zu höherer Beschäftigung, da die Gewerkschaften fur die Situationen mit günstigen Güternachfrageschocks einen vergleichsweise hohen Lohn anstreben. Angesichts der theoretisch unklaren Ergebnisse plädiert die Arbeit fur eine Reform des FTV anstelle eines drastischen Systemwechsels hin zu HTV.
Diese Arbeit untersucht empirisch den Zusammenhang von Beschäftigung und Lohnstrukturen zwischen sowie innerhalb von Qualifikations- und Altersgruppen. Zunächst werden Substitutionselastizitäten zwischen Qualifikations- und Altersgruppen geschätzt und die Lohnveränderungen bestimmt, die notwendig gewesen wären, um im Jahre 1997 die qualifikationsspezifischen Arbeitslosenquoten zu halbieren. Die geschätzten Substitutionselastizitäten sind sehr hoch. Die notwendige Lohnreduktion liegt nominal zwischen 9% und 10,6% und fällt umso höher aus, je geringer die Qualifikation der Arbeitnehmergruppe ist. Der zweite Teil der Arbeit befasst sich mit dem Zusammenhang zwischen residualer Lohnungleichheit und Beschäftigungsdynamik. Es werden konkurrierende Implikationen aus der Theorie der Grenzproduktivitätsentlohnung und der Suchtheorie abgeleitet und empirisch untersucht. Die Ergebnisse sind für keine der beiden Theorien überzeugend. Das robuste Ergebnis einer signifikant positiven Korrelation zwischen dem Niveau der Arbeitslosenquote und der residualen Lohnungleichheit legt allerdings nahe, dass Suchfriktionen zur Erklärung der residualen Lohndispersion beitragen können. JEL - Klassifikation: J31 , J21 , E24 , J64
Despite the apparent stability of the wage bargaining institutions in West Germany, aggregate union membership has been declining dramatically since the early 90's. However, aggregate gross membership numbers do not distinguish by employment status and it is impossible to disaggregate these sufficiently. This paper uses four waves of the German Socioeconomic Panel in 1985, 1989, 1993, and 1998 to perform a panel analysis of net union membership among employees. We estimate a correlated random effects probit model suggested in Chamberlain (1984) to take proper account of individual specfic effects. Our results suggest that at the individual level the propensity to be a union member has not changed considerably over time. Thus, the aggregate decline in membership is due to composition effects. We also use the estimates to predict net union density at the industry level based on the IAB employment subsample for the time period 1985 to 1997. JEL - Klassifikation: J5
The paper analyses the financial structure of German inward FDI. From a tax perspective, intra-company loans granted by the parent should be all the more strongly preferred over equity the lower the tax rate of the parent and the higher the tax rate of the German affiliate. From our study of a panel of more than 8,000 non-financial affiliates in Germany, we find only small effects of the tax rate of the foreign parent. However, our empirical results show that subsidiaries that on average are profitable react more strongly to changes in the German corporate tax rate than this is the case for less profitable firms. This gives support to the frequent concern that high German taxes are partly responsible for the high levels of intracompany loans. Taxation, however, does not fully explain the high levels of intra-company borrowing. Roughly 60% of the cross-border intra-company loans turn out to be held by firms that are running losses. JEL - Klassifikation H25 , F23 .
Differenzierte Verdienststrukturen, wie zum Beispiel qualifikatorische Verdienstunterschiede, tragen der Heterogenität am Arbeitsmarkt und somit auch einer notwendigen Flexibilität der Löhne Rechnung. Trotz dieser bedeutenden Rolle der Lohnstruktur für den Arbeitsmarkt gibt es relativ wenig detaillierte empirische Evidenz zu deren Ausgestaltung und Dynamik für Westdeutschland. In dieser Arbeit werden auf Basis der Gehalts- und Lohnstrukturerhebungen für die Jahre 1990 und 1995 sowohl die Lohndispersion innerhalb bestimmter Erwerbsgruppen („Within-Dispersion“) als auch zwischen diesen Gruppen („Between-Dispersion“) untersucht. Im Fokus der Analysen steht dabei der Vergleich zwischen den Erwerbsgruppen der vollzeitbeschäftigten Männer, der vollzeitbeschäftigten Frauen und der teilzeitbeschäftigten Frauen nach den Qualifikationsniveaus: ohne Berufsabschluss, mit Berufsabschluss und mit Hochschulabschluss. Dichteschätzungen des Bruttotageslohns zeigen, dass vollzeiterwerbstätige Männer über die gesamte Verteilung den höchsten Verdienst aufweisen. Weiterhin deuten die Dichteschätzungen darauf hin, dass die geschlechtsspezifischen Lohndifferentiale mit zunehmendem Verdienst steigen. Der selbe Sachverhalt findet sich auch für die qualifikatorischen Verdienstunterschiede. Mit steigendem Qualifikationsniveau steigt sowohl der Lohn als auch die Dispersion. Besonders ausgeprägt ist die qualifikatorische Dispersion für Männer. Eine Analyse der Lohndifferentiale sowohl innerhalb der Erwerbsgruppen als auch zwischen Männern und Frauen weist darauf hin, dass in der Gruppe der teilzeiterwerbstätigen Frauen die größte Lohndispersion vorzufinden ist und dass diese im Zeitablauf zugenommen hat. Ferner sind die Lohndifferentiale im unteren Bereich der Verteilung kleiner als im oberen. Die weitere Disaggregation nach dem Qualifikationsniveau reduziert die Within-Dispersion, wobei die Lohnunterschiede innerhalb der Erwerbsgruppen mit steigendem Qualifikationsniveau tendenziell zunehmen. Schließlich nimmt die Within-Dispersion für vollzeitbeschäftigte Hochschulabsolventinnen im Zeitablauf zu, während sie für die Teilzeitbeschäftigten sinkt. Betrachtet man die Qualifikations- und die Verteilungsdimension, zeigt sich, dass in beiden Jahren lediglich für vollzeiterwerbstätige Frauen ohne Berufsabschluss bzw. mit Hochschulabschluss das geschlechtsspezifische Differential über die Verteilung hinweg steigt. Für alle anderen Gruppen geht es über die Verteilung hinweg zurück. Die Lohndifferentiale zwischen Männern und Frauen haben im Zeitablauf abgenommen. Das mittlere Reallohnwachstum zwischen 1990 und 1995 ist für teilzeiterwerbstätige Frauen mit 6,8% am höchsten und für vollzeiterwerbstätige Männer mit 0,7% am geringsten. Die Reduktion der geschlechtsspezifischen Unterschiede im Zeitablauf ist unter Berücksichtigung des Qualifikationsniveaus noch ausgeprägter. Dies gilt vor allem für teilzeiterwerbstätige Frauen ohne Berufsabschluss und mit Hochschulabschluss. Für teilzeiterwerbstätige Frauen und für vollzeiterwerbstätige Männer findet sich im Zeitablauf eine zunehmende Lohnspreizung, während für vollzeiterwerbstätige Frauen die Verteilung konstant bleibt. Eine Zunahme der Lohnspreizung ist dabei insbesondere bei Hochschulabsolventen festzustellen, sowohl für vollzeiterwerbstätige Männer wie Frauen. Im Unterschied dazu hat für diese Erwerbsgruppen die Lohndispersion bei den Mittelqualifizierten in den 90er Jahren abgenommen.
This paper is a draft for the chapter German banks and banking structure of the forthcoming book The German financial system . As such, the paper starts out with a description of past and present structural features of the German banking industry. Given the presented empirical evidence it then argues that great care has to be taken when generalising structural trends from one financial system to another. Whilst conventio nal commercial banking is clearly in decline in the US, it is far from clear whether the dominance of banks in the German financial system has been significantly eroded over the last decades. We interpret the immense stability in intermediation ratios and financing patterns of firms between 1970 and 2000 as strong evidence for our view that the way in which and the extent to which German banks fulfil the central functions for the financial system are still consistent with the overall logic of the German financial system. In spite of the current dire business environment for financial intermediaries we do not expect the German financial system and its banking industry as an integral part of this system to converge to the institutional arrangements typical for a market-oriented financial system. This Version: March 25, 2003
Initiated by the seminal work of Diamond/Dybvig (1983) and Diamond (1984), advances in the theory of financial intermediation have sharpened our understanding of the theoretical foundations of banks as special financial institutions. What makes them "unique" is the combination of accepting deposits and issuing loans. However, in recent years the notion of "disintermediation" has gained tremendous popularity, especially among American observers. These observers argue that deregulation, globalisation and advances in information technology have been eroding the role of banks as intermediaries and thus their alleged uniqueness. It is even assumed that ever more efficiently organised capital markets and specialised financial institutions that take advantage of these markets, such as mutual funds or finance companies, will lead to the demise of banks. Using a novel measurement concept based on intermediation and securitisation ratios, the present article provides evidence which shows that banking disintermediation is indeed a reality for the US financial system. This seems to indicate that American banks are not all that "unique"; they can be replaced to a considerable extent. Moreover, many observers seem to believe that what has happened in the US reflects a universal trend. However, empirical results reported in this paper indicate that such a trend has not manifested itself in other financial systems, and in particular, not in Germany or Japan. Evidence on the enormous structural differences between financial systems and the lack of unequivocal signs of convergence render any inferences from the American experience to other financial systems very problematic.
Diese Arbeit vergleicht die Verdienststrukturen in Westdeutschland für die Jahre 1990 und 1995 basierend auf der Gehalts- und Lohnstrukturerhebung und der IAB—Beschäftigtenstichprobe. Wir betrachten Verdienstunterschiede im Hinblick auf die berufliche Qualifikation, das Geschlecht, den Erwerbsstatus, die Branchenzugehörigkeit und das Alter. Die Analyse verwendet die Methode der Quantilsregressionen und ist rein deskriptiver Natur. Die beiden Datensätze unterscheiden sich teilweise in der Stichprobenzusammensetzung und es finden sich zum Teil Unterschiede in den geschätzten Verdienstrelationen. Qualitativ stimmen die Ergebnisse vor allem für Männer relativ gut überein. Die Verdienststrukturen erweisen sich als sehr differenziert, beispielsweise nehmen geschlechtsspezifische und qualifikatorische Verdienstunterschiede wie auch die Verdienstdispersion innerhalb einer Arbeitnehmergruppe typischerweise mit dem Alter zu. JEL - Klassifikation: C14 , J31 , C80
Abstract: It is commonplace in the debate on Germany's labor market problems to argue that high unemployment and low wage dispersion are related. This paper analyses the relationship between unemployment and residual wage dispersion for individuals with comparable attributes. In the conventional neoclassical point of view, wages are determined by the marginal product of the workers. Accordingly, increases in union minimum wages result in a decline of residual wage dispersion and higher unemployment. A competing view regards wage dispersion as the outcome of search frictions and the associated monopsony power of the firms. Accordingly, an increase in search frictions causes both higher unemployment and higher wage dispersion. The empirical analysis attempts to discriminate between the two hypotheses for West Germany analyzing the relationship between wage dispersion and both the level of unemployment as well as the transition rates between different labor market states. The findings are not completely consistent with either theory. However, as predicted by search theory, one robust result is that unemployment by cells is not negatively correlated with the within cell wage dispersion.
This paper evaluates the effects of Public Sponsored Training in East Germany in the context of reiterated treatments. Selection bias based on observed characteristics is corrected for by applying kernel matching based on the propensity score. We control for further selection and the presence of Ashenfelter's Dip before the program with conditional difference-in-differences estimators. Training as a first treatment shows insignificant effects on the transition rates. The effect of program sequences and the incremental effect of a second program on the reemployment probability are insignificant. However, the incremental effect on the probability to remain employed is slightly positive. JEL - Klassifikation: H43 , C23 , J6 , J64 , C14
Beitrag fur das 27. Wirtschaftswissenschaftliche Seminar Ottobeuren 14.- 17.9.1997). Dieser Beitrag nimmt aus theoretischer und ökonometrischer Sicht zu der Kontroverse über die Bedeutung der qualifikatorischen Lohnstruktur zur Erklärung der Beschäftigungsstruktur Stellung. Basierend auf einer Einteilung in drei Qualifikationsgruppen zeigt sich empirisch, daß die Entlohnung der mittleren Gruppe relativ zur unteren und oberen weniger stark ansteigt, während ein kontinuierlicher Trend zur Höherqualifikation der Beschäftigten besteht. Es werden eine Translog-Kostenfunktion und Anteilsgleichungen ökonometrisch geschätzt, um den Einfluß der Lohnstruktur auf die Beschäftigungsstruktur zu erfassen. Bei allen Vorbehalten aufgrund verschiedener Probleme der Schätzungen implizieren die Ergebnisse einen signifikanten Einfluß der qualifikatorischen Struktur der mittleren Löhne auf die Beschäftigungsstruktur wie auch eine die relative Beschäftigung steigernde Wirkung einer erhöhten Lohndispersion innerhalb der Qualifikationsgruppen. Damit besteht die Möglichkeit, daß mit einer größeren Lohnspreizung die Lastverteilung der Arbeitslosigkeit bei gegebenem Output, Kapitaleinsatz und technischem Fortschritt in Form einer Erhöhung der Beschäftigung von gering qualifizierten Arbeitnehmern angeglichen werden kann.
Zur wissenschaftlichen Evaluation der aktiven Arbeitsmarktpolitik in Deutschland : ein Überblick
(2000)
Dieser Beitrag gibt einen Überblick der neueren wissenschaftlichen Literatur zur Evaluation der Aktiven Arbeitsmarktpolitik (AAMP) in Deutschland. Das Grundproblem mikroökonomischer Evaluation besteht darin, den Vergleichsmaßstab bei Nichtteilnahme zu schätzen, sei es auf Basis einer vergleichbaren Kontrollgruppe von Nichtteilnehmern oder auf Basis der Situation vor Teilnahme. Entscheidend ist hierbei, den potentiellen Selektionsproblemen Rechnung zu tragen. Evaluationsstudien auf der Makroebene müssen zusätzlich auch die indirekten Effkete der AAMP auf den gesamten Arbeitsmarkt berücksichtigen und der möglichen Endogenität der AAMP Rechnung tragen. Die meisten Evaluationsstudien fur Deutschland zeigen keine signifikant positiven Beschäftigungseffekte der AAMP, sind jedoch mit großer statistischer Unsicherheit behaftet. Wir führen letzteres im wesentlichen darauf zurück, daß wegen zu geringen Datenumfangs meist äußerst heterogene Maßnahmen gepoolt werden und daß über Teilnehmer und Nichtteilnehmer zu wenige Hintergrundinformationen verfügbar sind. Aufgrund dieser Datenrestriktionen verbietet sich daher aus Sicht der Autoren ein vorschnelles Verdikt über die ökonomischen Wirkungen der AAMP, obwohl mögliche positive Effekte nicht sehr stark sein können, da sie sonst vermutlich trotz unterschiedlicher Methoden und unzureichender Daten empirisch hätten identifiziert werden können.
Central wage bargaining and local wage flexibility : evidence from the entire wage distribution
(1998)
We argue that in labor markets with central wage bargaining wage flexibility varies systematically across the wage distribution: local wage flexibility is more relevant for the upper part of the wage distribution, and flexibility of wages negotiated under central wage bargaining affects the lower part of the wage distribution. Using a random sample of German social-security accounts, we estimate wage flexibility across the wage distribution by means of quantile regressions. The results support our hypothesis, as employees with low wages have significantly lower local wage flexibility than high wage employees. This effect is particularly relevant for the lower educational groups. On the other hand, employees with low wages tend to have a higher wage flexibility with respect to national unemployment.
The Box-Cox quantile regression model using the two stage method introduced by Chamberlain (1994) and Buchinsky (1995) provides an attractive extension of linear quantile regression techniques. However, a major numerical problem exists when implementing this method which has not been addressed so far in the literature. We suggest a simple solution modifying the estimator slightly. This modification is easy to implement. The modified estimator is still [square root] n-consistent and its asymptotic distribution can easily be derived. A simulation study confirms that the modified estimator works well.
This paper investigates the magnitude and the main determinants of share price reactions to buy-back announcements of German corporations. For our comprehensive sample of 224 announcements that took place between May 1998 and April 2003 we find average cumulative abnormal returns around -7.5% for the thirty days preceding the announcement and around +7.0 % for the ten days following the announcement. We regress post-announcement abnormal returns with multiple firm characteristics and provide evidence which supports the undervaluation signaling hypothesis but not the excess cash hypothesis or the tax-efficiency hypothesis. In extending prior empirical work, we also analyze price effects from initial statements of firms that they intend to seek shareholder approval for a buy-back plan. Observed cumulative abnormal returns on this initial date are in excess of 5% implying a total average price effect between 12% and 15% from implementing a buy-back plan. We conjecture that the German regulatory environment is the main reason why market variations to buy-back announcements are much stronger in Germany than in other countries and conclude that initial statements by managers to seek shareholders’ approval for a buy-back plan should also be subject to legal ad-hoc disclosure requirements.
This paper shows that abnormal stock price returns around open market repurchase announcements are about four times higher in Germany than in the US (12% versus 3%). We hypothesize that this observation can be explained by country differences in repurchase regulation. Our empirical evidence indicates that German managers primarily buy back shares to signal an undervaluation of their firm. We demonstrate that the stringent repurchase process prescribed by German law attributes a higher credibility to such a signal than lax US regulations and thereby corroborate our hypothesis.
Unter dem Stichwort "Patchwork-Biografien" wird die Tatsache, dass ein großer Teil der abhängig Beschäftigten ihren erlernten Beruf nicht mehr ausüben, in jüngster Zeit viel diskutiert. Diese Studie liefert einen empirischen Beitrag zur Anatomie der Berufswechsel für westdeutsche Männer auf Basis der BIBB/IABDaten 1998/1999. Als Grundlage für die empirische Analyse wird ein theoretisches Modell der Wahl zwischen horizontal differenzierten Berufen entwickelt. Die wichtigsten Ergebnisse sind: Ex post beobachtete Berufswechsel hängen negativ vom Durchschnittslohn im Ausbildungsberuf und positiv vom Durchschnittslohn im Erwerbsberuf ab. Der deskriptiv beobachtete durchschnittliche Entlohnungseffekt eines Berufswechsels ist signifikant positiv, verstärkt sich noch, wenn für den Ausbildungsberuf kontrolliert wird, und ist demgegenüber signifikant negativ, wenn für den Erwerbsberuf kontrolliert wird. Der geschätzte kausale durchschnittliche Entlohnungseffekt ist positiv. Die Ergebnisse sind insgesamt damit konsistent, dass Berufswechsel vor allem damit zusammenhängen, dass Beschäftigte im neuen Erwerbsberuf größere Verdienst- und Karrierechancen wahrnehmen können. JEL - Klassifikation: J62 , J31 , J24 , C21
Thema dieser Arbeit ist eine ökonomische Einordnung der Förderung der beruflichen Weiterbildung (FbW) als Teil der Aktiven Arbeitsmarktpolitik in Deutschland. Die Analyse erfolgt im Lichte des sektoralen Wandel, der Verschiebung der qualifikatorischen Arbeitsnachfrage und der vorrauszusehenden Produktivitätseffekte im Zusammenhang mit einer alternden Gesellschaft. Auf Basis der Humankapitaltheorie wird zunächst theoretisch erörtert, inwieweit sich FbW als Teil der Aktiven Arbeitsmarktpolitik aus Effizienz- und Verteiliungsgesichtspunkten rechtfertigen lässt und in welcher Form FbW sinnvoll sein kann.
Über die Wirkung der Förderung der beruflichen Weiterbildung in Ostdeutschland sind in den letzten Jahren zahlreiche empirische Studien durchgeführt worden, die auf den methodischen Fortschritten der Evaluationsforschung aufbauen. Dieser Beitrag stellt die empirische Evidenz im Kontext der institutionellen Regelungen und der methodischen Probleme einer angemessenen mikro- oder makroökonomischen Evaluation dar. Insbesondere behandeln wir die im ostdeutschen Kontext wichtigen Probleme der Mehrfachteilnahmen und der Reduktion der Beschäftigungsquoten für die Teilnehmer kurz vor einer Weiterbildung ("Ashenfelters Tal"), die bislang in empirischen Analysen kaum Berücksichtigung finden. Die durchgeführten mikroökonomischen Evaluationsstudien basieren auf Umfragedaten mit kleinen Teilnehmerzahlen. Die erzielten Evaluationsergebnisse ergeben ein ernüchterndes Bild der Wirkung geförderter Weiterbildung: Es zeigen sich eher negative als positive Maßnahmeneffekte auf die Beschäftigung. Aufgrund der schwachen Datenbasis und verbleibender methodischer Probleme erlaubt die bisherige Evidenz jedoch noch keine wirtschaftspolitischen Schlussfolgerungen. Stattdessen sollten die eher negativen Ergebnisse von der politischen Seite zum Anlass genommen werden, die Voraussetzungen für eine angemessene und kontinuierliche Evaluation der aktiven Arbeitsmarktpolitik zu schaffen.
This paper analyzes empirically the distribution of unemployment durations in West- Germany before and after the changes during the mid 1980s in the maximum entitlement periods for unemployment benefits for elderly unemployed. The analysis is based on the comprehensive IAB employment subsample containing register panel data for about 500.000 individuals in West Germany. We analyze two proxies for unemployment since the data do not precisely measure unemployment in an economic sense. We provide a theoretical analysis of the link between the durations of nonemployment and of unemployment between jobs. Our empirical analysis finds significant changes in the distributions of nonemployment durations for older unemployed individuals. At the same time, the distribution of unemployment durations between jobs did not change in response to the reforms. Our findings are consistent with an interpretation that many firms and workers used the more bene cial laws as a part of early retirement packages but those workers who were still looking for a job did not reduce their search effort in response to the extension of the maximum entitlement periods. This interpretation is consistent with our theoretical model under plausible assumptions. JEL: C24, J64, J65
This paper examines intraday stock price effects and trading activity caused by ad hoc disclosures in Germany. The evidence suggests that the observed stock prices react within 90 minutes after the ad hoc disclosures. Trading volumes take even longer to adjust. We find no evidence for abnormal price reactions or abnormal trading volume before announcements. The bigger the company that announces an ad hoc disclosure, the less severe is the abnormal price effect following the announcement. The number of analysts is negatively correlated to the trading volume effect before the ad hoc disclosure. The higher the trading volume on the last trading day before the announcement, the greater is the price effect after the ad hoc disclosures and the greater the trading volume effect. Keywords: ad hoc disclosure rules, intraday stock price adjustments, market efficiency.
We show that multi-bank loan pools improve the risk-return profile of banks’ loan business. Banks write simple contracts on the proceeds from pooled loan portfolios, taking into account the free-rider problems in joint loan production. Thus, banks benefit greatly from diversifying credit risk while limiting the efficiency loss due to adverse incentives. We present calibration results that the formation of loan pools reduce the volatility in default rates, proxying for credit risk, of participating banks’ loan portfolios by roughly 70% in our sample. Under reasonable assumptions, the gain in return on equity (in certainty equivalent terms) is around 20 basis points annually.
Die im Rahmen dieser Diplomarbeit entwickelte sehr einfach und kompakt aufgebaute Mikro-Ionenquelle basiert auf einer Mikro-Struktur-Elektrode (MSE). Mit dieser lässt sich bei einer Betriebsspannung von wenigen 100 Volt eine stabile Hochdruck-Glimmentladung erzeugen. Das Betriebsgas durchströmt die MSE-Pore und expandiert anschließend adiabatisch ins Vakuum, wobei die interne Temperatur des Strahls herabgesetzt wird. Der Vordruck des Gases kann bei dem vorhandenen Aufbau zwischen wenigen 100 hPa und etwa 0,5 MPa liegen. Mit einem ähnlichen Aufbau, jedoch mit deutlich größerer Saugleistung der Vakuumpumpen, konnte selbst bei Vordrücken über 3 MPa noch eine Entladung mit gleichen Eigenschaften betrieben werden. Es wurde gezeigt, dass Ionen durch Diffusion sowie die starke Gasströmung in der MSE-Pore aus dem Plasma extrahiert werden. Eine zusätzliche Beschleunigungsspannung zeigt einen deutlichen Einfluss auf die Formierung eines Ionenstrahls. Es kann ein schmaler Strahl mit maximal einigen mm Durchmesser erzeugt werden. Die Mikroentladung lässt sich mit zahlreichen Gasen betreiben. Erfolgreich getestet wurden Helium, Neon, Argon, Stickstoff und normale Luft sowie Mischungen davon. Auch eine Beimischung von Wasserstoff ist möglich und eröffnet die Erzeugung beispielsweise von molekularen HeH+-Ionen. Zur Extraktion der Ionen kann eine Beschleunigungsspannung von bis zu 5 kV angelegt werden. Der Ionenstrahl wird über ein differenzielles Pumpsystem durch einen Skimmer ins Hochvakuum überführt und dort analysiert. Es entstehen sowohl einfach als auch doppelt geladene Ionen. Bei einem Entladestrom von wenigen mA lässt sich ein Strom von bis zu 3 mA (ohne Sekundärelektronen-Unterdrückung) auf dem Skimmer messen. Die Stromdichte des Strahls ist jedoch zu hoch, um mit der verwendeten einfachen Diodenextraktion den gesamten Strom durch den Skimmer zu transportieren. Nur ein Anteil von ca. 1/50 bis 1/30 des gesamten Ionenstroms kann den Skimmer passieren. Hinter dem Skimmer liegt der Strom zwischen einigen 100 nA und einigen 10 µA. Durch Optimierung der Extraktionsgeometrie sollte hier eine deutliche Erhöhung erreicht werden. Im normalen Betrieb wird mit einem Entladestrom von 1-2 mA gearbeitet. Zum einen ist hier bereits, wie eben erwähnt, die maximale Stromdichte erreicht, die durch den Skimmer transportiert werden kann. Zudem sinkt mit steigendem Strom die Haltbarkeit der MSE-Elektroden aufgrund verstärkten Sputterns erheblich, auch dies spricht gegen einen Betrieb mit hohem Plasmastrom. Der maximale bisher erreichte Entladestrom in einem MSE-Plasma beträgt 50 mA. Der Elektrodenabtrag begrenzt momentan die Betriebsdauer einer MSE auf wenige Stunden. Durch die Einführung von Wolfram-Elektroden konnte bereits eine deutliche Steigerung der Haltbarkeit erreicht werden, für eine sinnvolle Anwendung der Ionenquelle muss jedoch noch eine Weiterentwicklung der MSE stattfinden. Dass sich der Kühleffekt aufgrund der adiabatischen Expansion auf im Plasma erzeugte metastabile He*-Atome auswirkt, wurde im Rahmen einer zweiten Diplomarbeit zum Thema Plasmajet gezeigt. Mit einem Aufbau nach demselben Prinzip, jedoch ohne Extraktionsspannung, wurde eine Apparatur zur Erzeugung eines spinpolarisierten metastabilen Helium-Targets realisiert [Jahn2002]. Es wurde gezeigt, dass zum einen der Energieeintrag ins Gas durch die Entladung sehr gering ist. Es handelt sich also beim MSE-Hochdruck- Plasma tatsächlich um eine nichtthermische Entladung. Zum anderen konnte in ergänzenden Flugzeitmessungen gezeigt werden, dass die Geschwindigkeitsverteilung der Metastabilen der eines herkömmlichen Gasjets entspricht. Der Kühleffekt wirkt also auf die Metastabilen genauso wie auf Gasatome im Grundzustand, ohne dabei die Metastabilen abzuregen. Um die Geschwindigkeitsverteilung der Ionen zu untersuchen, ist die verwendete Methode jedoch nicht ohne weiteres anwendbar. Aufgrund der Coulomb- Abstoßung der Ionen weist der unbeschleunigte Ionenstrahl eine starke Divergenz auf. Die Intensität des Ionensignals auf dem Detektor ist somit äußerst gering, was eine Flugzeitmessung kaum sinnvoll erscheinen lässt. Mit den vorhandenen Diagnosemethoden konnte daher ein Kühleffekt aufgrund der adiabatischen Expansion auf die Ionen nicht verifiziert werden. Mit der Mikro-Ionenquelle wurde jedoch gezeigt, dass es eine Wechselwirkung zwischen Ionen und Gasjet gibt: versucht man, die Ionen mit einer Extraktionsspannung zu beschleunigen, so erfahren sie aufgrund zahlreicher Stöße mit den langsameren Gasteilchen einen massiven Energieverlust. Man erhält einen Ionenstrahl mit stark verbreiterter Energieverteilung. Dies zeigt, dass sich die Ionen im Bereich hoher Dichte mit dem Jet bewegen. Stört man die Expansion, indem man die Ionen mittels der Beschleunigungsspannung aus dem Jet herausreißt, so erfahren sie durch die Wechselwirkung mit den Atomen im Jet einen erheblichen Energieverlust. Es ist daher zu vermuten, dass auch die Ionen gekühlt werden. Misst man mit Hilfe eines Quadrupol-Massenspektrometers das Spektrum von nicht beschleunigten Ionen, so erhält man scharfe Peaks, es tritt also kein Energieverlust auf. Zur Messung des Geschwindigkeitsprofils eignet sich diese Methode jedoch nicht. Es ist daher sinnvoll, in Zukunft mit einer entsprechend angepassten Apparatur auch für die Ionen eine Flugzeitmessung durchzuführen. Die schlechte Energieschärfe des Ionenstrahls ist ein erheblicher Nachteil für viele Anwendungen. Für zukünftige Weiterentwicklungen der Mikro- Ionenquelle muss eine geeignetere Extraktionsgeometrie gefunden werden. Eine Möglichkeit wäre, die Ionen mit dem Gasjet mitfliegen zu lassen und in größerem Abstand zu beschleunigen, wenn die Dichte im Jet stark abgefallen ist. In diesem Fall muss man jedoch eine sinnvolle Lösung für Größe und Position des Skimmers finden oder klären, ob auf einen Skimmer vollständig verzichtet werden kann. Es könnte bei dieser Lösung hilfreich sein, die Raumladungsdichte im Ionenstrahl durch Überlagerung mit einem Elektronenstrahl zu reduzieren und so die Divergenz des Strahls zu verringern. Man könnte die Divergenz auch verringern, indem man den Ionenstrahl durch ein Magnetfeld einschließt. Hierbei provoziert man aber vermutlich durch die Spiralbewegung der Ionen zusätzliche Stöße mit dem Jet. Denkbar wäre auch, die Ionen mit Hilfe elektrischer Felder aus dem Gasjet herauszulenken und anschließend zu beschleunigen. Bekommt man das Problem des Energieverlusts in den Griff, so erhält man eine leistungsfähige Ionenquelle, die ein großes Potential für Anwendungen bietet. Der kompakte Aufbau ermöglicht einen Verzicht auf Wechselspannungen, Mikrowellenstrahlung sowie magnetischen Einschluss. Da es sich um eine Gleichspannungsentladung mit wenigen Watt Leistung handelt, ist ein sehr energieeffizienter Betrieb möglich. Die gemessenen Ionenströme zeigen, dass eine Hochdruckentladung auf der Basis von MSE eine hohe Ionisationseffizienz aufweist. Der hohe Arbeitsdruck ermöglicht eine große Ausbeute an molekularen Ionen. Gelingt es, den Kühleffekt des Gasjets auf die Ionen zu nutzen, so erzeugt man einen Ionenstrahl mit sehr niedriger interner Temperatur, der für atomphysikalische Experimente interessant ist. Zudem ließe sich ein solcher Strahl auf sehr kleine Durchmesser fokussieren, was eine hohe Genauigkeit etwa bei Oberflächenmodifikationen erlaubt. Die Untersuchungen im Bereich Gasanalytik haben gezeigt, dass Hochdruckentladungen hier eine Alternative zu den herkömmlichen, auf Niederdruckentladungen basierenden, Messverfahren darstellen. Die sehr guten Nachweisgrenzen für Freon in Kombination mit dem einfachen und kompakten Aufbau sprechen für die Hochdruckentladung. Jedoch muss für eine sinnvolle Nutzung die Haltbarkeit der MSE noch deutlich erhöht werden.
Im Rahmen des Value Based Managements sollen alle Manahmen der Unternehmensfhrung auf die Steigerung des intrinsischen Marktwertes des Eigenkapitals ausgerichtet werden. Hauptanwendungsbereiche des Value Based Managements sind die Planung, Performancemessung, Managemententlohnung sowie die Bereichssteuerung. Eine konsequente shareholder-orientierte Steuerung beinhaltet eine adquate Ermittlung von Wertbeitrgen in den einzelnen Anwendungsbereichen. Hierzu dienen insbesondere absolute Wertbeitragskennzahlen in Form von Residualgewinnen. Residualgewinne sind dadurch gekennzeichnet, dass der Gewinn um eine auf das Gesamtkapital bezogene Capital bzw. Interest Charge reduziert wird. Der magebliche Gewinn sowie das Gesamtkapital ergeben sich, indem die handelsrechtlichen Gren durch mehr oder minder weitreichende Modifikationen angepasst werden. Die Berechnung der Interest Charge erfolgt entweder auf Basis eines risikoangepassten Zinssatzes oder auf Basis eines risikofreien Zinssatzes. In der Praxis finden sich zahlreiche unterschiedliche Residualgewinnkonzepte, die sich insbesondere durch die jeweils charakteristischen Modifikationen und durch den verwendeten Zinssatz zur Berechnung der Kapitalkosten unterscheiden.1) Herkmmliche Konzepte zeichnen sich dadurch aus, dass die Interest Charge auf Basis eines risikoangepassten Zinssatzes berechnet wird. Das in Velthuis (2003c) theoretisch entworfene und von der KPMG in der Praxis umgesetzte Konzept Earnings less Riskfree Interest Charge, ERIC , ist hingegen dadurch charakterisiert, dass zur Berechnung der Interest Charge ein risikofreier Zinssatz verwendet wird. Ferner werden Modifikationen nur insofern vorgenommen, als dass eine vollstndige Bercksichtigung aller Erfolgskomponenten gewhrleistet wird. Glaubt man den Vertretern herkmmlicher Konzepte, basieren diese Konzepte auf einer hinreichenden theoretischen Fundierung. Diesem Anspruch gengen solche Konzepte tatschlich jedoch nicht, sie zeichnen sich gerade durch eine mangelnde theoretische Fundierung aus.2) In Velthuis (2003c) wird verdeutlicht, dass die in der Praxis verbreitete Vorgehensweise gerade zum Ausweis von Wertbeitrgen fhrt, die inkonsistent mit der Zielsetzung der Shareholder sind. In allen Anwendungsbereichen des VBM zeigt sich nmlich aus theoretischer Sicht die Problematik der VerIm Rahmen des Value Based Managements sollen alle Maßnahmen der Unternehmensführung auf die Steigerung des intrinsischen Marktwertes des Eigenkapitals ausgerichtet werden. Hauptanwendungsbereiche des Value Based Managements sind die Planung, Performancemessung, Managemententlohnung sowie die Bereichssteuerung. Eine konsequente shareholder-orientierte Steuerung beinhaltet eine adäquate Ermittlung von Wertbeiträgen in den einzelnen Anwendungsbereichen. Hierzu dienen insbesondere absolute Wertbeitragskennzahlen in Form von Residualgewinnen. Residualgewinne sind dadurch gekennzeichnet, dass der Gewinn um eine auf das Gesamtkapital bezogene Capital bzw. Interest Charge reduziert wird. Der maßgebliche Gewinn sowie das Gesamtkapital ergeben sich, indem die handelsrechtlichen Größen durch mehr oder minder weitreichende Modifikationen angepasst werden. Die Berechnung der Interest Charge erfolgt entweder auf Basis eines risikoangepassten Zinssatzes oder auf Basis eines risikofreien Zinssatzes. In der Praxis finden sich zahlreiche unterschiedliche Residualgewinnkonzepte, die sich insbesondere durch die jeweils charakteristischen Modifikationen und durch den verwendeten Zinssatz zur Berechnung der Kapitalkosten unterscheiden.1) Herkömmliche Konzepte zeichnen sich dadurch aus, dass die Interest Charge auf Basis eines risikoangepassten Zinssatzes berechnet wird. Das in Velthuis (2003c) theoretisch entworfene und von der KPMG in der Praxis umgesetzte Konzept Earnings less Riskfree Interest Charge, ERIC Ò , ist hingegen dadurch charakterisiert, dass zur Berechnung der Interest Charge ein risikofreier Zinssatz verwendet wird. Ferner werden Modifikationen nur insofern vorgenommen, als dass eine vollständige Berücksichtigung aller Erfolgskomponenten gewährleistet wird. Glaubt man den Vertretern herkömmlicher Konzepte, basieren diese Konzepte auf einer hinreichenden theoretischen Fundierung. Diesem Anspruch genügen solche Konzepte tatsächlich jedoch nicht, sie zeichnen sich gerade durch eine mangelnde theoretische Fundierung aus.2) In Velthuis (2003c) wird verdeutlicht, dass die in der Praxis verbreitete Vorgehensweise gerade zum Ausweis von Wertbeiträgen führt, die inkonsistent mit der Zielsetzung der Shareholder sind. In allen Anwendungsbereichen des VBM zeigt sich nämlich aus theoretischer Sicht die Problematik der Verwendung eines risikoangepassten Zinssatzes zur Berechnung von Kapitalkosten: Schon die Verwendung eines risikoangepassten Kapitalkostensatzes im Rahmen der Planung kann problematisch sein. Die Verwendung risikoangepasster Kapitalkosten als Benchmark bei der Performancemessung ist sogar ganz abzulehnen, und bei der Managemententlohnung ist die Verrechnung von risikoangepassten Kapitalkosten zwingend mit Fehlanreizen verbunden. Aber auch praxisübliche Modifikationen erweisen sich als problematisch, da Erfolgskomponenten nicht bzw. nicht vollständig berücksichtigt werden. Im Gegensatz zu herkömmlichen Konzepten weist das VBM-Konzept ERIC eine tatsächliche theoretische Fundierung auf. In Velthuis (2003c) werden grundlegende theoretische und praktische Anforderungen für die einzelnen Anwendungsbereiche herausgearbeitet und es wird gezeigt, dass ein integriertes VBM-Konzept auf Basis des Residualgewinns ERIC diese Anforderungen stets erfüllt. Ziel dieses Aufsatzes ist es, die Grundkonzeption von ERIC theoretisch weiter zu entwickeln. Während in Velthuis (2003c) stets von einer sehr einfachen Idealwelt ausgegangen wird, soll hier zum einen verdeutlicht werden, wie ein erfolgreiches Value Based Management auf Basis von ERIC in komplexeren und realitätsnäheren Situationen erfolgen kann. Zum anderen gilt es, zusätzliche praktische Problembereiche zu erkennen und Lösungsmöglichkeiten aufzuzeigen. Der Aufsatz ist wie folgt aufgebaut: Zunächst wird gezeigt, wie der Residualgewinn ERIC zu berechnen ist, und es wird ein Überblick über die Anwendungsbereiche gegeben. Anschließend wird die grundlegende Entscheidungssituation für die späteren Darstellungen erörtert und es werden fundamentale Prinzipien des Value Based Managements und ihre Bedeutung für die einzelnen Anwendungsbereichen erläutert. Sodann wird für die einzelnen Bereichen des Value Based Managements, der Planung, Performancemessung, Managemententlohnung und der Bereichssteuerung gezeigt, wie ERIC anzuwenden ist, damit eine tatsächliche Shareholder-Orientierung gewährleistet wird. Die Darstellungen erfolgen dabei jeweils zunächst vor dem Hintergrund einer Idealwelt. In einem zweiten Schritt wird die Entscheidungssituation jeweils modifiziert, um der Realität ein Stück näher zu kommen.
Weltweit nehmen Kohle-, Öl- und Erdgasvorräte ab, der Energiebedarf dagegen steigt dramatisch an. Regenerative Energien mindern zwar die steigenden Klimagefahren, können aber unseren zukünftigen Energiebedarf in Ballungszentren kaum decken. Nach Einschätzung zahlreicher Experten gehört dem Wasserstoff die Zukunft. Er wird aber derzeit nahezu ausschließlich aus fossilen Brennstoffen gewonnen; damit bleibt auch diese Ressource endlich - ganz zu schweigen von ihrem hohen Gefährdungspotenzial. - Das neuartige Energiekonzept einer solaren und damit kohlenstoffunabhängigen Wasserstoffwirtschaft bedarf zur technischen Realisierung eines Zwischenspeichers für regenerative Energien. Dieser zukünftige Energieträger sollte synthetisch einfach erzeugbar sein, in unbegrenztem Maß zur Verfügung stehen oder zumindest recycelbar sein, die Energie permanent speichern und gefahrlos transportierbar sein, eine hohe Energiedichte aufweisen und kein Kohlendioxid oder andere (Klima-) Schadstoffe freisetzen. - Das Element Silicium kann zu einem maßgeschneiderten Bindeglied zur Ankoppelung dezentraler regenerativer Energieerzeugung an eine ebenso dezentrale Wasserstoffwirtschaft an jedem beliebigen Ort werden. Der Transport und die Speicherung von Silicium sind - im Gegensatz zu Öl oder besonders zu Wasserstoff - ohne Gefährdungspotenzial und/oder hohe Energieverluste möglich und erfordern nur eine technische Infrastruktur, wie sie auch für Kohle benötigt wird.
Global reserves of coal, oil and natural gas are diminishing; global energy requirements however are dramatically increasing. Renewable energy sources lower the threat to the earth’s climate but are not able to meet the energy consumption in major urban areas. The opinion of many experts is that the future will be dominated by hydrogen. However, this gas is essentially totally manufactured from fossil fuels and is hence of limited abundance – not to mention the hazards involved in its utilisation. - A novel energy concept involving solar and thus carbon-independent hydrogen-based technology necessitates an intermediate storage vehicle for renewable energy. This future energy carrier should be simple to manufacture, be available to an unlimited degree or at least be suitable for recycling, be able to store and transport the energy without hazards, demonstrate a high energy density and release no carbon dioxide or other climatically detrimental substances. - Silicon successfully functions as a tailor-made intermediate linking decentrally operating renewable energy-generation technology with equally decentrally organised hydrogen-based infrastructure at any location of choice. In contrast to oil and in particular hydrogen, the transport and storage of silicon are free from potential hazards and require a simple infrastructure similar to that needed for coal.
Im Rahmen einer Ereignisstudie am deutschen Kapitalmarkt wird untersucht, ob Adhoc- Mitteilungen korrekt eingesetzt werden. Die Ergebnisse belegen, daß Nemax-50-Unternehmen die Veröffentlichung potentiell positiver Meldungsinhalte bevorzugen und die Bekanntmachung negativer Mitteilungen verzögern. Außerdem veröffentlichen Nemax-50-Werte in positiven Marktphasen besonders viele Mitteilungen und einen besonders hohen Anteil an positiven Meldungsinhalten, um von der positiven Stimmung der Marktteilnehmer zu profitieren. Dax-30-Werte verhalten sich dagegen regelgerecht. Die Befunde belegen die Notwendigkeit einer stärkeren Überwachung des Veröffentlichungsverhaltens der Emittenten, die in 2002 am Neuen Markt gelistet waren.
This paper compares the accuracy of credit ratings of Moody s and Standard&Poors. Based on 11,428 issuer ratings and 350 defaults in several datasets from 1999 to 2003 a slight advantage for the rating system of Moody s is detected. Compared to former research the robustness of the results is increased by using nonparametric bootstrap approaches. Furthermore, robustness checks are made to control for the impact of Watchlist entries, staleness of ratings and the effect of unsolicited ratings on the results.
In dieser Arbeit wurden Ergebnisse der Untersuchungen mit Synchrotronstrahlung, welche mit Hilfe der COLTRIMS-Methode gewonnen wurden, an Wasserstoff H2 und Deuterium D2 vorgestellt. Dabei wurde im Besonderen der Zerfall von doppelt angeregten repulsiven Zuständen der Moleküle betrachtet. Die Dissoziation der Moleküle, die auf solche Zustände angeregt worden sind, beginnt sofort. Zu einem gewissen Zeitpunkt findet die Autoionisation statt, dabei spiegelt die Aufteilung der Gesamtenergie auf KER und Elektronenenergie direkt den internuklearen Abstand der Kerne wider. So kann der Zeitpunkt der Autoionisation bestimmt werden. Die Messung der KERs entspricht hierbei dem Ablesen einer Stoppuhr, die bei der Absorption des Photons gestartet wurde. Die Autoionisation wird durch die Bewegung der Nukleonen induziert, weshalb die Autoionisationsbreite stark vom internuklearen Abstand abhängt. Dies zeigt sich in den beobachteten Strukturen der KER-Verteilung. In dieser Arbeit konnte erstmals auch die Winkelverteilung der Autoionisations- Elektronen gemessen werden. Dabei wurde eine starke Abhängigkeit vom KER und damit vom Zerfallskanal beobachtet. Bei einer Photonen-Energie von 30 eV zeigte sich ein deutlicher Isotopeneffekt bei Wasserstoff. Dieser kann nicht durch direkte Ionisation erklärt werden. Deshalb wird angenommen, dass durch Autoionisation hervorgerufen wird. Hierbei spielen die unterschiedlichen Massen der Isotope eine Rolle. Es konnte nachgewiesen werden, dass die Autoionisation der beiden Isotope bei unterschiedlichen Kernabstnden stattfand. Die gezeigten Winkelverteilungen wurden nicht erklrt. Bei einer Photonen-Energie von 36 eV wurden die KER-Spektren von Wasserstoff und Deuterium untersucht. Die KER-Spektren, in welchen erstmals die Endzustnde H+ + H(n = 1) und H+ + H(n = 2) voneinander getrennt werden konnten, zeigten eine ausgeprägte Struktur. Die Mechanismen, die einzelne Maxima in den Strukturen hervoruft, wurden ausführlich dargestellt. Bei der Untersuchung wurden die Winkelverteilungen für diese Maxima im KER-Spetrum zu Hilfe genommen. Die gemessenen Winkelverteilungen spiegeln den Drehimpuls des emittierten Elektrons wider. In den Ergebnissen sind überraschende und bisher noch nicht erklärte Beitrge von delta-ml = +/- 2 beobachtet worden. Es wurden die Winkelverteilungen von emittierten Elektronen bei Ereignissen, die im Endzustand H+ +H(n = 2) enden, für verschiedene Photonen-Energien untersucht. Dabei wurde festgestellt, dass die Winkelverteilungen bei niedrigen Photonen-Energien um 36 eV anisotrop, mit einem Maximum entlang der molekularen Achse, sind. Bei zunehmenden Photonen-Energien werden die Winkelverteilungen um ca. 45 eV isotrop. Bei höheren Energien werden sie wieder anisotrop, weisen hier jedoch ein Maximum entlang der Polarisationsachse auf. Die Ergebnisse wurden mit denen von Ito et al. [ito00], welcher nur Photonen-Energien im Bereich von 45 eV bis 72 eV untersuchte, verglichen. Sie stimmen sehr gut berein, was darauf zurckschlieen lsst, dass die beobachteten Verteilungen hauptschlich durch direkte Photoionisation auf die angeregten Zustände und des H+2 -Ions erklären lassen. Die um 36 eV beobachtete Anisotropie könnte durch die nicht hundertprozentige Polarisation des Photonenstrahl der Beamline hervorgerufen worden sein.
Entwurf und prototypische Realisierung einer Architektur zur flexiblen Verschlüsselung von XML-Daten
(2001)
Im Rahmen dieser Arbeit ist auf Basis einer sorgfältigen Prüfung existierender Literatur zu kryptografischen Verfahren und sowohl einer Analyse bestehender Ansätze zur Verschlüsselung von XML-Dokumenten, als auch unter Nutzung bestehender Standards für XML-Technologien, eine Architektur zur flexiblen Verschlüsselung von XML-Daten erstellt worden. Ausgehend von Einsatz-Szenarien wurden dazu Anforderungen an das gewünschte System definiert. Anhand dieser Anforderungen wurde systematisch eine vollständige Spezifikation zur Verschlüsselung von XML-Daten hergeleitet. Weiterhin ist eine erweiterbare und generische Architektur zur Verarbeitung von XML-Daten spezifiziert worden. Auf dieser aufbauend, wurde eine Architektur für die flexible Ver- und Entschlüsselung von XML-Daten erstellt. Diese Architekturen und ihre Komponenten sind generisch, wobei für die prototypische Realisierung exemplarisch eine konkrete Auswahl dieser Komponenten implementiert wurde. Für die Verschlüsselung wurde dazu auf die zuvor erstellte Spezifikation zurückgegriffen und deren relevante Teile implementiert. Anschliessend wurden Experimente durchgeführt, die einen Eindruck von der Leistungsfähigkeit der Architektur gegeben haben. Insgesamt haben sich die Erwartungen an die Architektur mehr als erfüllt. Stehen Transformationen als verwendbare Klassen bereit, die auf dem DOM operieren, so ist es leicht möglich, diese in das DPF einzubetten, wie z.B. beim Verschlüsselungs-Prozessor geschehen. Damit ist eine sehr gute Erweiterbarkeit gegeben. Da die Arbeitsweise eines Transformations-Prozessors sowohl direkt durch übergebene Argumente aus dem DPS als auch durch die Verwendung von Annotationen gesteuert werden kann, kann die Verarbeitung von Dokumenten sehr flexibel und auch feingranular erfolgen. Die Möglichkeit, Annotationen aus mehreren DAS-Dokumenten zu aggregieren, erlaubt eine verteilte Pflege dieser Dokumente. Mit der Möglichkeit, mehrere Prozessoren direkt nacheinander eine Eingabe bearbeiten zu lassen, wird die Flexibilität nochmals gesteigert. Denn wenn die Prozessoren als Komponenten zur Verfügung stehen, können diese stets aufs Neue kombiniert werden. Vor allem der Ansatz, dass alle zur Verarbeitung und Steuerung relevanten Daten in Form deklarativer Beschreibungen erfolgen, die den Bedürfnissen jedes Prozessors angepasst sind, macht das System zu einem mächtigen Instrument. Zudem werden dadurch keine tiefergehenden Programmierkenntnisse benötigt. So entfällt auch die Notwendigkeit, Änderungen des gewünschten Transformations-Ergebnisses durch Änderungen im Quelltext des erzeugenden Programms vorzunehmen. Dadurch sind insgesamt den Möglichkeiten zur Verarbeitung von XML-Dokumenten kaum Grenzen gesetzt. Notwendige Anpassungen bleiben zumeist auf eine oder wenige Komponenten beschränkt, was Änderungen leichter ermöglicht. Dabei hat sich wieder einmal der flexible und trotzdem mächtige Ansatz der Kette von Werkzeugen (Chain of Tools) bewährt. Auch die Spezifikation zur Verschlüsselung von XML-Daten konnte alle Erwartungen erfüllen. Alle eingangs gestellten Anforderungen sind damit ausnahmslos darstellbar. Insbesondere betrifft dies die partielle und feingranulare Verschlüsselung von XML-Daten, sowie die hierarchische und damit einhergehende Super-Verschlüsselung. Rückblickend kann gesagt werden, dass das wissenschaftliche Fundament in Form von kryptografischen Grundlagen zwar sehr gut ist, aber die darauf aufbauenden höherwertigen Dienste und Architekturen aus wissenschaftlicher Sicht bisher kaum Beachtung gefunden haben. So wird zwar die Verschlüsselung von ganzen Daten-Objekten zwischen zwei Empfängern gut beherrscht, aber eine feingranulare Verschlüsselung, bei der Daten an grosse dynamische Empfängergruppen in offenen Systemen vertraulich übermittelt werden, hat bisher keine Beachtung gefunden. In der vorliegenden Arbeit werden diese Probleme adressiert, wobei aber nicht für alle eine abschliessende Lösung präsentiert werden konnte, da dies den Rahmen der Arbeit gesprengt hätte. Vielleicht ist es gerade die fehlende wissenschaftliche Durchdringung, die es so schwierig macht, geeignete Standards für die Verschlüsselung von XML-Dokumenten zu etablieren. Denn wenn man betrachtet, wie lange schon beim W3C über die Verschlüsselung diskutiert und daran gearbeitet wird, so kann es einen nur verwundern, dass nicht greifbarere Ergebnisse vorliegen. Ende Juli, also kurz vor Abschluss der vorliegenden Arbeit, ist bei Recherchen noch ein wissenschaftlich fundierteres Papier aufgetaucht, das auf einer Konferenz im Juni dieses Jahres vorgestellt wurde. Es beschreibt eine Document Security Language (DSL), die auf XSLT beruht und eine Architektur zur Verschlüsselung von XML-Dokumenten [85]. Da die Nähe zu dieser Arbeit gross ist, soll sie hier noch kurz vergleichend betrachtet werden. Die dort beschriebene Architektur und die Sprache bietet auch die Verschlüsselung auf feingranularer Ebene. Aber sie ist nicht erweiterbar und kennt auch kein generisches Meta-Daten-Konzept, so dass sie hinter den Ergebnissen der vorliegenden Arbeit deutlich zurückfällt. Zudem beruht sie auf der vorne schon im Zusammenhang mit der Verwendung von XSLT kritisierten Arbeit in [48]. Sie trägt dazu im Bereich der Verschlüsselung nicht viel Neues bei. Allerdings weist sie einige interessante Ansätze im Bereich der Infrastrukturen auf [85, Abschnitt 3.2]. Um diese könnte die hier vorgestellte Architektur der Verschlüsselungs-Prozessoren ergänzt werden, denn dieses Gebiet wurde in der Arbeit ausgespart.
In der vorliegenden Arbeit wurden die Signalformen eines großvolumigen Germanium- Detektors analysiert, mit dem Ziel, den primären Wechselwirkungsort des Photons im Detektor zu bestimmen. Die experimentellen Voraussetzungen dazu bestehen erst seit der Entwicklung schneller Analog-Digital-Wandler, mit denen man in der Lage ist, Detektorsignale direkt nach dem Vorverstärker zu digitalisieren und somit einer genauen Analyse zu unterziehen. Im experimentellen Teil der Arbeit wurden dazu die von einem großvolumigen p-Typ HPGe-Detektor der "koaxial einseitig geschlossenen" Bauart gelieferten Signale abgetastet und digitalisiert. Synchron dazu wurde die Energie mit Analogelektronik gemessen. Die Messungen wurden für verschiedene Energien in Abhängigkeit vom Auftreffort des g-Quants auf dem Detektor durchgeführt. Dabei wurde der Detektor mit g- Quellen im Energiebereich bis 700keV an verschiedenen Positionen kollimiert bestrahlt. Zu den Messungen wurden Simulationsrechnungen durchgeführt, die sich in zwei Schritte gliederten. Im ersten Schritt wurden mittels des Monte-Carlo-Simulationsprogramms GEANT die Wechselwirkungsorte und die dort deponierten Energien eines g-Quants in einem Germanium-Detektor ermittelt. Im zweiten Schritt wurden daraus, unter Berücksichtigung der Detektorgeometrie und des dadurch vorgegebenen elektrischen Feldes, die Pulsformen berechnet. Aus der Anpassung der Rechnungen an die experimentellen Daten konnte über die Variation des einzigen freien Parameters der Ladungsträgerkonzentration, eine sehr gute Übereinstimmung der Anstiegszeitenverteilungen erzielt werden. Die Ladungsträgerkonzentration ließ sich damit mit einer Genauigkeit von 33% bestimmen. Durch eine Analyse der gemessenen digitalisierten Pulsformen konnte der Einstrahlort mit einer Wahrscheinlichkeit von 75,20% bestimmt werden. Dazu ist nur die Messung zweier Zeiten, der Zeit zwischen 10% und 30% der Pulshöhe und der Zeit zwischen 10% und 90% der Pulshöhe, notwendig. Die Ortsauflösung variierte dabei zwischen 4,1mm und 7,5mm. Mit Hilfe der Simulation konnten die Detektorbereiche identifiziert werden, für die eine eindeutige Zuordnung der Pulse zum Einstrahlort gelingt. Darauf aufbauend bietet die Simulation die Möglichkeit, neue Detektorgeometrien im Hinblick auf ihre Eigenschaften zur Bestimmung des Einstrahlortes zu entwickeln. Durch die Bestimmung des Einstrahlortes eines g-Quants auf dem Detektor läßt sich eine Dopplerkorrektur bei der Energiemessung von im Flug emittierten g-Quanten durchführen, die in einer deutlich verbesserten Energieauflösung resultiert.
Auf der methodologischen Grundlage objektiv-hermeneutischer Sequenzanalysen von vier Reden, die der Bundesverteidigungsminister Gerhard Stoltenberg (CDU) und der Bundesminister für Auswärtige Angelegenheiten Hans-Dietrich Genscher (FDP) im Januar 1991 sowie der Bundeskanzler Gerhard Schröder (SPD) und der Bundesminister für Auswärtige Angelegenheiten Joschka Fischer (Bündnis 90/Die Grünen) im November 2001 vor dem Deutschen Bundestag gehalten haben, zeigte sich, dass die militärische Abstinenz der Bundesrepublik im Golfkrieg und der Einsatz der Bundeswehr im Rahmen der Operation »Enduring Freedom«, dem „Krieg gegen den Terror“, auf den geteilten Umgang konservativer und progressiver Bundesregierungen mit dem Tabu des Militärischen zurückzuführen ist, das sich in Deutschland in Reaktion auf den Zweiten Weltkrieg gebildet hatte. Vor dem Hintergrund eines gesinnungsethisch dominierten politischen Diskurses in der Bundesrepublik schreckte die aus Union und Liberalen geführte Regierung von Bundeskanzler Helmut Kohl (CDU) wenige Wochen nach dem Vollzug der Deutschen Einheit und der Wiedererlangung der vollen Souveränität teilweise wider besseres Wissen vor einem Bruch dieses Tabus in Form einer Durchsetzung der Staatsräson zurück, weil sie fürchtete, im Falle einer aktiven Beteiligung deutscher Streitkräfte an den Kriegshandlungen zur Restitution des Völkerrechts, das durch die irakische Invasion Kuwaits gebrochen worden war, von der öffentlichen Meinung eines Rückfalls in die Ära des deutschen Militarismus bezichtigt zu werden. Da sich dieses Problem für Mitte-Links-Regierungen so nicht stellt, sondern ganz im Gegenteil die Aussicht auf eine positive Anrechnung der Verletzung von Tabus als Ausweis ihrer Lernfähigkeit besteht, war es der Koalition aus SPD und Bündnis 90/Die Grünen möglich, die Bundeswehr nach dem Präzedenzfall der NATO-Luftangriffe auf Jugoslawien auch an der militärischen Beantwortung der Terrorattacken vom 11. September 2001 zu beteiligen. Darüber hinaus verweist das Novum einer aktiven militärischen Beteiligung der Bundesrepublik an internationalen Kriegseinsätzen unter der Ägide der ersten rot-grünen Bundesregierung wohl auch auf einen allmählich von den Regierenden auf die Regierten übergehenden langfristigen Wandel auf der Ebene der Mentalitäten, der dadurch begünstigt worden ist, dass sich 1998 ein doppelter Machtwechsel im Bund vollzog, der erstmals seit 16 Jahren wieder eine der Tendenz nach linke Mehrheit etablierte und gleichzeitig einer neuen Generation die Regierungsverantwortung übertrug. Diese neue Generation hat es offenbar nicht nur verstanden, ihre Anhänger in langjährig erprobter ideologischer Abgrenzung von der konservativ-liberalen Regierung Kohl so fest an sich zu binden, dass diese ihr auch »in den Krieg« folgten, sondern sie drückte der deutschen Politik zugleich einen neuen Stil auf, der sehr bald selbst zum Programm werden könnte.
Der Einbau von Übergangsmetallionen in Polymerketten kann zu Materialien mit vielversprechenden optischen, elektronischen oder magnetischen Eigenschaften führen, wie sie auf der Basis konventioneller organischer Polymere nicht zu erzielen sind. Die für metallorganische Makromoleküle charakteristischen Eigenschaften resultieren vor allem aus der Vielfalt der Strukturtypen, die für Metallkomplexe auftreten, und in vielen Fällen aus kooperativen Effekten zwischen den Übergangsmetallzentren eines Polymerstranges. Gezieltes Materialdesign setzt daher neben einem grundlegenden Verständnis der Interaktion zwischen den Metallkomplexfragmenten die Fähigkeit voraus, diese durch geeignete Verknüpfungseinheiten so miteinander zu verbinden, dass Wechselwirkungen zwischen ihnen auftreten. Kooperative Phänomene lassen sich häufig bereits an kurzkettigen Oligomeren beobachten, die daher als Modellsysteme für die entsprechenden Polymere dienen. Vor diesem Hintergrund lag der Schwerpunkt der vorliegenden Arbeit auf der Synthese und Charakterisierung di- und trinuclearer Metallkomplexe. Darüber hinaus wurden aber auch entscheidende Fortschritte in Bezug auf die Synthese metallhaltiger Polymere auf der Basis ausgewählter Ferrocenderivate erzielt. Zur Darstellung der Zielverbindungen wurden sowohl etablierte Verknüpfungs-Konzepte genutzt als auch neue Syntheserouten entwickelt. Als wichtige Startverbindungen wurden die Ferrocenylborane FcBR2 und 1,1‘-fc(BR2)2 [Fc = (C5H5)Fe(C5H4), fc = Fe(C5H4)2, R = Br, H, CR‘3] eingesetzt, da sich deren Borylsubstituenten in vielfältiger Weise zur Verknüpfung der metallorganischen Bausteine nutzen lassen. Aufgrund der Lewis-sauren Eigenschaften der Borylsubstituenten können Ferrocenylborane mit difunktionellen organischen Lewis-Basen wie 4,4‘-Bipyridin oder Pyrazin zu Polymeren verknüpft werden. Um die Anzahl der Metallatome innerhalb derartiger Makromoleküle zu erhöhen, wurden im Rahmen dieser Arbeit erstmals metallorganische Lewis-Basen als Verknüpfungseinheiten eingesetzt. In dieser Hinsicht bieten sich 3,4-Dimethyl-1-phosphaferrocen und 3,3‘,4,4‘-Tetramethyl-1,1‘-diphosphaferrocen sowie Ferrocenyllithium und 1,1‘-Dilithioferrocen an, da in diesen Verbindungen das Lewis-basische Zentrum Bestandteil des Cyclopentadienylrings ist. Im Gegensatz zu Phosphaferrocenen bilden die starken Lewis-Basen Ferrocenyllithium und 1,1‘-Dilithioferrocen mit dem Ferrocenylboran FcBMe2 selbst in Lösung stabile Addukte (z. B. Fc2BMe2Li). Polymerisationsversuche mit den Edukten 1,1‘-(fcBMe2)2 und 1,1‘-Dilithioferrocen führen entgegen den Erwartungen jedoch nicht zu polymerem Material, sondern ergeben das borverbrückte [1.1]Ferrocenophan [{Fe-(C5H4)2}2{BMe2}2]Li2. Die Struktur von [{Fe-(C5H4)2}2{BMe2}2]Li2 im festen Zustand weist als hervorstechendstes Merkmal ein nacktes Lithium-Ion auf, das sich im Zentrum des Käfigs befindet. Dieses supramolekulare Aggregat ist auch in Lösung beständig. Werden jedoch beide Ferroceneinheiten oxidiert, verlässt das Li+-Ion den Makrozyklus, um nach vollständiger Reduktion von [{Fe-(C5H4)2}2{BMe2}2] wieder an seinen ursprünglichen Platz zurückzukehren. Komplementär zum Verknüpfungskonzept über dative Bor-Stickstoff-, Bor-Phosphor- und Bor-Kohlenstoff-Bindungen wurde im Rahmen dieser Arbeit eine Kondensationsreaktion erarbeitet, die auf einfachem Wege zu kovalent verknüpften di- und oligonuclearen Ferrocenkomplexen führt. Bei der Umsetzung von FcBBr2 mit HSiEt3 beobachtet man eine Dimerisierungsreaktion, die unter Bildung von Fc2BBr verläuft. Einer entsprechenden Reaktion lässt sich auch 1,1‘-fc(BBr2)2 unterziehen, womit sich ein Weg zu Poly(ferrocenylenen) eröffnet, in denen die Ferroceneinheiten über dreifach koordiniertes Bar verknüpft sind ([-fcB(R)-]n, R = Br). Weitere Wege zu ferrocenhaltigen Polymeren mit Bar im Polymerrückgrat wurden durch die erfolgreiche Synthese der Ferrocenylborane FcBH2 und 1,1‘-fc(BH2)2 eröffnet, die in Form ihrer Lewis-Säure-Base-Addukte mit Dimethylethylamin [FcBH2 . NMe2Et; 1,1‘-fc(BH2 . NMe2Et)2] oder Dimethylsulfid [FcBH2 . SMe2; 1,1‘-fc(BH2.SMe2)2] isoliert werden konnten. FcBH2 . NMe2Et und FcBH2 . SMe2 erwiesen sich als aktive und selektive Hydroborierungsreagenzien. Durch Umsetzung mit aromatischen Dialkinen werden dadurch konjugierte Polymere zugänglich, welche mit Polyolefinen verwandt sind, in denen einige der Kohlenstoffatome durch Boratome ersetzt wurden. Diese Materialien zeichnen sich durch ausgeprägt pi-Delokalisation aus, die sich über das Bor hinweg erstreckt, und weckten unser Interesse, da Oxidation der Ferrocenyl-Seitenketten eine elektrochemische Modifizierung der Ladungsdichte an den Borzentren erlauben sollte. Gleichzeitig ließen sich auf diese Weise paramagnetische Fe(III)-Ionen in unmittelbarer Nachbarschaft zu einem elektrisch leitfähigen Polymer generieren. Überdies erhält man Polymere des Typs [-fcB(R)-]n nicht nur über die Reaktion von 1,1‘-fc(BBr2)2 mit HSiEt3 (R = Br) sondern auch über die Kondensationsreaktion von 1,1‘-fc(BH2)2, die unter Abspaltung von BH3 verläuft (R = H).
Der Handlungsspielraum der Kommunen im Spannungsfeld zwischen Nationalstaat und Europäischer Union
(2003)
National borders in Europe have been opening since 1992 and the Union is expanding to embrace more countries prompting enterprises to consider alternative and more attractive locations outside their home country to handle part of their activities (Van Dijk and Pellenbarg, 2000; Cantwell and Iammarino, 2002). International relocation is becoming more and more popular even for small and medium-sized firms that are involved in a growing internationalisation process, mirroring the path of multinational enterprises. Italy, like other industrialised countries, is experiencing a fragmentation of the production chain: firms tend to shift high labour-intensive manufacturing activities to areas characterised by an abundance of low-cost labour (i.e. Central Eastern Europe, India, South East Asia, Latin America, Russia and Central Asia). The internationalisation process by Italian district SMEs has assumed significant dimensions. It has become a relevant topic in recent economic debate because of its consequences for the local context and, in particular, the implication for the survival of the Italian district model (see, among others, Becattini, 2002; Rullani, 1998 and Cor, 2000). The purpose of the paper is twofold: it aims at (i) identifying the managerial approaches to the internationalisation process adopted by the Italian district SMEs and by the Industrial District (ID) itself and (ii) at investigating whether the international delocalisation to the South Eastern European countries (SEECs) constitutes a threat or an opportunity for the Italian district model. The paper is organised as follows. The general introduction is followed by a description of the evolution of the internationalisation processes in Italy over the last three decades. Section three presents a discussion of the internationalisation strategies adopted by Italian SMEs. Section four focuses on the internationalisation process of the Italian industrial districts SMEs. A review of the studies on the subject is offered in section five. Section six presents a qualitative study on the internationalisation process as undergone by sports shoes manufacturers in the Montebelluna district, in north-east Italy. This study shows different managerial strategies to the internationalisation process and emphasises that the motivations can evolve over time, from originally cost-saving to increasingly market-oriented or global strategies. On the basis of a literature review, section seven investigates whether internationalisation constitutes a threat (i.e. loss of jobs and knowledge) or an opportunity (i.e. enlargement of the ID, update district s competitiveness) for the district model. Finally, some summarising remarks in section eight conclude the paper.
Wissen ist in jüngster Zeit zu einem zentralen Begriff in der Debatte um regionale Entwicklung geworden. Wissen gilt schlechthin als Motor des innovationsgetriebenen ökonomischen Wachstums. Es nimmt gegenwärtig neben den bekannten klassischen Produktionsfaktoren die Rolle desjenigen Produktionsfaktors ein, der als grundlegend für regionale Entwicklung verstanden wird. In diesem Kontext übernehmen wissensintensive Dienstleister die zentrale Rolle als Mittler von Wissen: Sie dienen als Transmissionsriemen in Wissensprozessen. Sie sind heute von erheblicher Bedeutung, da man annimmt, dass Unternehmen nicht mehr in der Lage sind, allein durch eigene Anstrengungen in ausreichendem Maße neues Wissen zu schaffen; neues Wissen, das nur durch Transfer für Unternehmen nutzbar gemacht werden müsste, schlicht nicht in akademischen Einrichtungen wie Universitäten vorhanden ist; die Bedingungen volatiler Märkte und eines zunehmenden Innovationswettbewerbs die Anforderungen an die Wissensgenerierung durch Unternehmen radikal erhöht haben. Neue Wege der Wissensgenerierung müssen daher beschritten werden. Die alte Vorstellung eines linearen Prozesses der Wissensgenerierung vom akademischen Grundlagenwissen über die Angewandte Forschung bis zur Entwicklung und Anwendung, den man auch mit dem Konzept des mode 1 Modells bezeichnet, wird durch das Konzept des interaktiven Modells beziehungsweise des mode 2 Modells der Wissensgenerierung ergänzt, wenn nicht ersetzt (Gibbons et al. 1994). Dieses Konzept sieht die Wissensgenerierung als einen vielfältig vernetzten, rekursiven und reflexiven Prozess (zusammenfassend Malecki 2000). Fragen, wie Prozesse der Wissensgenerierung und des Lernens organisiert werden, rücken damit in den Vordergrund. Daher wird das gegenwärtige Stadium der wirtschaftlichen Entwicklung gerne als Lernende Ökonomie bezeichnet (Lundvall/Johnson 1994, OECD 2001, Archibugi/Lundvall 2002). Eine der Konsequenzen dieser Debatte ist, dass uns heute wissensintensive Prozesse als solche sowie in ihrer Geographie komplexer erscheinen als früher. Auf der einen Seite wird den wissensintensiven Dienstleistern ein wesentlicher und zunehmender Anteil an der Generierung von Innovationen und Lösungen für neue Geschäftsvorgänge zugemessen (Bryson u.a. 2000). Die Organisation von Wissensprozessen wird für diese Unternehmen zu einem wichtigen Faktor ihrer Wettbewerbsfähigkeit. Auf der anderen Seite wird vermutet, dass Wissen eine 3 räumliche Komponente hat und daher Wege der räumlichen Organisation von Wissensprozessen zu den bedeutenden Instrumenten gehören, im Wettbewerb zu bestehen. Der kognitive Prozess der Generierung und Aneignung von Wissen macht die Organisation von Kommunikation und sozialer Interaktion notwendig. Dies ist eine wesentliche Aufgabe des Wissensmanagements, das sich dazu verschiedener Dimensionen von Nähe bedient. Dieser Beitrag will die Rolle, die ökonomische Akteure den verschiedenen Dimensionen von Nähe im Management von Wissensprozessen zumessen, an zwei Fallstudien beleuchten. Er wird mit dem M&AGeschäft einen Fall wissens-basierter Dienstleistungen für den Dienstleistungssektor, genauer den Finanzsektor, mit einem Fall wissens-basierter Dienstleistungen für den produzierenden Sektor hier die Modellentwicklung in der Automobilindustrie vergleichen. Wir hoffen, mit dem Vergleich einerseits aufzuzeigen, dass die konkrete Form der Organisation von Nähen in Wissensprozessen kontext-spezifisch ist, und andererseits die Bedingungen aufzudecken, die die jeweilige Form der Organisation bestimmen.
Einbindung und standörtliche Organisation von Ingenieurdienstleistern in der Automobilentwicklung
(2002)
Die Organisation der Automobilentwicklung unterliegt auch in den 1990er Jahren einem tiefgreifenden Wandel, der durch ein anhaltendes Engineering Outsourcing und eine zeitliche Parallelisierung von Entwicklungsaufgaben nach dem Konzept des Simultaneous Engineering zum Ausdruck kommt (vgl. Jürgens 2000a, Rentmeister 2001). Die Automobilhersteller sind dabei die zentralen Akteure. Mit neuen Formen unternehmensübergreifender Arbeitsteilung streben sie eine Reduzierung ihrer Entwicklungskosten und der Entwicklungszeiten für neue Fahrzeugmodelle an. Zugleich versuchen sie auf diese Weise, eine zunehmende Zahl an Modellen auf den Markt zu bringen und ihre Wettbewerbsfähigkeit zu erhöhen. Der wesentliche Grund für die gegenwärtige Reorganisation der Automobilentwicklung liegt in einem verschärften globalen Wettbewerb unter den Automobilkonzernen, die auf zunehmend weltweit integrierten Märkten im Wettbewerb zueinander stehen.
Im Zuge des dynamischen Wachstums wissensintensiver Unternehmensdienstleistungen hat die Unternehmens- und Managementberatung geradezu einen Boom in den vergangenen zehn bis fünfzehn Jahren erfahren. In der zweiten Hälfte der 1990er Jahre ist der europäische Markt im jährlichen Durchschnitt um fast 27%1 gewachsen und hat heute nahezu das Volumen des gesamten Weltmarktes vor sechs Jahren erreicht. Deutschland ist traditionell einer der weltweit größten Märkte mit einem globalen Marktanteil von über 10%2. Trotz des Mitte des Jahres 2001 einsetzenden Konjunkturrückgangs, der auch die Beratungsbranche durch zahlreiche Projektstornierungen der Kunden getroffen hat, wird die Nachfrage professioneller Beratungsdienste weiterhin auf hohem Niveau anhalten. Eine Studie des Instituts für Unternehmensberatung in Bonn berichtet, dass mittlerweile ein Viertel aller Unternehmen über feste Budgets für Managementberatungsdienstleistungen verfügen und die Hälfte aller befragten mittelständischen und Großunterne hmen in Deutschland dafür Ausgaben zwischen ¬ 2,5 Mio. bis weit über ¬ 10 Mio. in den kommenden fünf Jahren kalkulieren (FAZ 2001). Nicht nur der Markt, sondern auch die Unternehmen haben in den letzten Jahren zweistellige Wachstumsraten erfahren. Internationalisierung ist im Zuge dieser Entwicklung eine strategische Option, um die hohen Wachstumschancen wahrzunehmen. Und in der Tat haben sich die Rahmenbedingungen internationaler Dienstleistungsmärkte erheblich verändert. Auf der Angebotsseite nimmt der Wettbewerb auf nationalen Märkten stetig zu und veranlasst Unternehmen, Wachstumsmöglichkeiten im Ausland zu suchen. Auf der Nachfrageseite macht es die zunehmende Internationalisierung der Kundenunternehmen erforderlich, den Kunden zu folgen, um Dienste sowohl in den jeweiligen Ländern als auch auf einem internationalen Niveau anbieten zu können (Kutschker/Mößlang 1996). Eine zunehmend internationale Produktionsorganisation, die Spezialisierung und Segmentierung von Gütermärkten und die steigende technologische Komplexität der Produktionsprozesse erfordern auch in der Zukunft die Unterstützung durch externe unternehmensorientierte Dienst- und Beratungsleistungen (Coe 1997). Darüber hinaus schaffen eine fortschreitende Deregulierung der nationalen Märkte, die Liberalisierung des Welthandels durch die WTO, insbesondere das General Agreement on Trade in Services (GATS), die Integration kontinentaler Wirtschaftsblöcke wie der EU, NAFTA oder ASEAN sowie die Verbreitung moderner Informations- und Kommunikationstechnologien Voraussetzungen für einen ungehemmten internationalen Austausch von Dienstleistungen (O'Farrell et al. 1996). Demgegenüber unterliegen wissensintensive Dienstleistungen im Vergleich zu Industrieprodukten einer Reihe von Hemmnissen, die eine Internationalisierung der Beratungsunternehmen und ihrer Expertise tendenziell erschweren: (1) Soziale Eintrittsbarrieren. Empirische Studien legen nahe, dass sich Beratungsprodukte nicht im Marktsinne an anonyme Käufer absetzen oder exportieren lassen (Meffert 1990; Kaas/Schade 1995; Kohr 2000; Enke/Geigenmüller 2001). Vielmehr sind Beratungs- 4 geschäfte sehr stark auf bestehende Kundennetzwerke und Netzwerke von Geschäftspartnern begrenzt. Aufgrund der hohen Bedeutung etablierter und auf Vertrauen basierter Beziehungen stellen Kontaktnetzwerke sowohl national als vor allem auch international erhebliche soziale Eintrittsbarrieren dar. (2) Market commitment. Die Unternehmensberatung ist eine gebundene Dienstleistung, die nur in Interaktion mit dem Kunden koproduziert wird. Das Produkt Beratung ist daher nicht von dem Herstellungsprozess zu trennen und folglich ist Beratung nicht handelbar (Sampson/Snape 1985). Dadurch kann der Internationalisierungsprozess nicht inkrementell erfolgen, denn von Anbeginn an muss durch Direktinvestitionen bzw. Kooperationen eine höhere finanzielle und personelle Verbindlichkeit im Auslandsmarkt, das sogenannte market commitment, erfolgen. (3) Kosten von Markttransaktionen. Die Kosten für Markttransaktionen sind für Dienstleistungen höher als für Produktionsgüter, da die Transaktionen kundenspezifisch sind, durch die Personengebundenheit der Dienstleistung einer hohen Qualitätsvariabilität unterliegen, die Informationssuc he aufwendiger ist und Informations- und Wissensvorteile durch unkontrollierte Weiterverwertung (spillover) erodieren können (Enderwick 1989; Dunning 1989). Trotz dieser transaktionsbedingten Internationalisierungsbarrieren ist eine Zunahme des Internationalisierungsprozesses empirisch deutlich festzustellen. Aus einer britischen Studie geht hervor, dass Unternehmensberatungen die Barrieren der Internationalisierung weitaus geringer einschätzten als andere unternehmensorientierte Dienstleistungsunternehmen und ihre Exporte durchschnittlich über 10% des Umsatzes repräsentieren (Bryson et al. 1997). Unternehmensorientierte Dienstleistungen repräsentieren das am schnellsten wachsende Segment des internationalen Handels (Brouthers et al. 1996; Kutschker/Mößlang 1996; Lichtblau 2000), liegt doch die Wachstumsrate dreimal höher als beim Handel mit Gütern (Kirsch/Laird/Evans 2000). Dabei muss der tatsächliche Wert der gehandelten Dienste als noch höher eingeschätzt werden, da viele Leistungen wie z.B. Managementberatung, Werbung, Rechtsberatung und Versicherungen teilweise nicht erfasst werden können (d.h. sie werden nicht nach Ihrem Wert deklariert oder verzollt). Für die globalen Marktführer schätzen Zeithaml/Bitner (1996), dass die zehn größten Unternehmensberatungen über die Hälfte des Umsatzes außerhalb des Heimlandes erwirtschaften. Jedoch sind nicht nur die Großunternehmen international aktiv. In Großbritannien konnten O Farrell/Wood/Zheng (1996) für insgesamt 219 kleine und mittlere Unternehmensberatungen zeigen, dass mehr als die Hälfte aller befragten Unternehmen international operierten, ein deutlich höherer Anteil als bei allen anderen Unternehmensdienstleistungen. Auch eine umfassende Studie in Deutschland, 5 Österreich und der Schweiz stützt diesen Befund. Nahezu zwei Drittel aller Beratungsunternehmen verfügen über internationale Projekterfahrung inklusive der kleinen und Kleinstunternehmen (Walger/Scheller 1998). Zwar unterhalten die Unternehmen in geringerem Umfang Auslandsniederlassungen, jedoch haben 20% der Beratungshäuser mit mehr als zehn festen Mitarbeitern und über die Hälfte aller Unternehmen mit mehr als 50 Mitarbeitern internationale Standorte (Walger/Scheller 1998). Das Ziel der vorliegenden Studie liegt darin, erstens wichtige Marktmechanismen des Beratungsgeschäfts zu identifizieren und zweitens die Motive, Strategien und Mechanismen der Internationalisierung von Unternehmensberatungen aufzudecken. Damit wird ein ursächliches Verständnis darüber angestrebt, auf welchen Kanälen und über welche Barrieren Beratungsprodukte ihren Markt erreichen und welche Konsequenzen damit für den Internationalisierungsprozess verbunden sind. Die vorliegende Studie ist ein Teil des von der Deutschen Forschungsgemeinschaft unterstützten Forschungsprojekts Internationalisierung von Managementberatungen in Europa im Spannungsfeld von globaler Organisation und lokalem Markt . Die Ergebnisse dieser Exploration bilden den Ausgangspunkt für die nächste Empiriephase, in der auf der Grundlage der hier erarbeiteten Zusammenhänge ein Vergleich der europäischen Metropolen Rhein-Main, London und Madrid hinsichtlich der Prozesse und Formen des Markteintritts und der lokalen Markterschließung auslä ndischer Managementberatungsunternehmen durchgeführt wird. Für den eiligen Leser sind die wichtigsten Ergebnisse der Exploration in einer Zusammenfassung am Ende des Berichts skizziert.
Das Investmentsparen erfreut sich zunehmender Beliebtheit. Es handelt sich dabei um eine Anlageform, bei der Sparer mit geringem Kapitaleinsatz die gleichen Vorteile und Chancen erlangen können, wie sie in der Regel sonst nur bei größerem Kapitaleinsatz möglich sind. So wird beim Investmentsparen durch viele kleinere Anlagebeträge eine größere Kapitalsumme erzielt. Bei den offenen Immobilienfonds handelt es sich um die Realisierung dieser Investmentidee im Immobilienbereich. Die offenen Immobilienfonds verzeichnen insbesondere seit den 90er Jahren immense Mittelzuflüsse. Das Anlageprinzip der offenen Immobilienfonds basiert auf dem Prinzip der Risikostreuung: Neben der gesetzlichen Erfordernis, das Risiko über eine Vielzahl von Objekten zu streuen, verfügen die Fonds über verschiedene Möglichkeiten der Risikostreuung wie die Streuung nach Standorten und Nutzungen sowie nach Objektalter, -größe und -volumen. Im vorliegenden Bericht wird das Anlageverhalten der größten fünf offenen Immobilienfonds untersucht, die zusammen über einen Marktanteil von ca. 70 % verfügen (Stand: 1999). Zu diesem Zweck wurde eine Datenbank angelegt, in welche die Daten sämtlicher im Fondsvermögen gehaltenen Objekte eingegeben wurden. Zu Beginn dieser Arbeit stehen die Vermutungen, dass die Fonds überwiegend Objekte in Verdichtungsräumen und dort insbesondere in den Großstädten halten und dass die Gebäudenutzungen überwiegend tertiärwirtschaftlicher Natur sind. Aus den Rechenschaftsberichten der offenen Immobilienfonds, auf denen der empirische Teil basiert, geht lediglich der Aspekt der Risikostreuung hervor; es gibt weder Angaben zu den Verkehrswerten einzelner Objekte noch zu deren Mietpreisen. Als Bezugsgröße für die Auswertung können somit lediglich die Anzahl der Objekte und die Nutzfläche (in m²) herangezogen werden. An dieser Stelle muss auf die relativ hohe Intransparenz des deutschen Immobilienmarktes hingewiesen werden. Obwohl in den letzten Jahren einige Indizes von verschiedenen Institutionen aufgelegt wurden, ist der Markt weiterhin recht unübersichtlich. 1998 wurde der DIX, der Deutsche Immobilien-Index, als Gegenstück zum DAX (Deutscher Aktienindex) von der Deutschen Immobiliendatenbank (DID) in Wiesbaden aufgelegt. Hier werden Daten von Bestandsgrundstücken gesammelt und zusammengefasst. Die fünf untersuchten Fonds steuern zwar regelmäßig ihre Daten bei, jedoch besteht hier eine Geheimhaltungspflicht, so dass auf diesem Weg keine zusätzlichen Informationen bezogen werden können. Diese Arbeit stellt einen Beitrag zu der in der Geographie bislang kaum beachteten, aber bedeutsamen und raumprägenden Immobilienbranche dar. Während andere 2 Disziplinen wie vor allem die Wirtschaftswissenschaften den Immobilienbereich schon lange für sich entdeckt haben, hat sich die Geographie bisher wenig damit beschäftigt.
Over the past decade, a variety of studies have shown that other sectors in addition to high technology industries can provide a basis for regional growth and income and employment opportunities. In addition, design-intensive, craft-based, creative industries which operate in frequently changing, fashion-oriented markets have established regional concentrations. Such industries focus on the production of products and services with a particular cultural and social content and frequently integrate new information technologies into their operations and outputs. Among these industries, the media and, more recently, multimedia industries have received particular atte ntion (Brail/ Gertler 1999; Egan/ Saxenian 1999). Especially, the film (motion picture) and TV industries have been the focus of a number of studies (e.g. Storper/ Christopherson 1987; Scott 1996). For the purpose of this paper, cultural products industries are defined as those industries which are involved in the commodification of culture, especially those operations that depend for their success on the commercialization of objects and services that transmit social and cultural messages (Scott 1996, p. 306). Empirical studies on the size, structure and organizational attributes of the firms in media-related industry clusters have revealed a number of common characteristics (Scott 1996; Brail/ Gertler 1999; Egan/ Saxenian 1999). Most firms in these industries are fairly young, often existing for only a few years. They also tend to be small in terms of employment. Often, regional clusters of specialized industries are the product of a local growth process which has been driven by innovative local start-ups. In their early stages, many firms have been established by teams of persons rather than by individual entrepreneurs and have heavily relied on owner capital. Another important feature which distinguishes these industries from others is that they concentrate in inner-city instead of suburban locations (Storper/ Christopherson 1987; Eberts/ Norcliffe 1998; Brail/ Gertler 1999). In this study, I provide evidence that the Leipzig media industry shows similar tendencies and characteristics as those displayed by the multimedia and cultural products industry clusters in Los Angeles, San Francisco and Toronto, albeit at a much smaller scale. Cultural products industries are characterized by a strong tendency towards the formation of regional clusters despite the fact that in some sectors, such as the multimedia industry, technological opportunities (i.e. internet technologies) have seemingly reduced the necessity of proximity in operations between interlinked firms. In fact, it seems that regional concentration tendencies are even more dominant in cultural products industries than in many industries of the old economy . Cultural products industries have formed particular regional clusters of suppliers, producers and customers which are interlinked within the same commodity chains (Scott 1996; Les- 2 lie/ Reimer 1999). These clusters are characterized by a deep social division of labor between vertically-linked firms and patterns of interaction and cooperation in production and innovation. Within close networks of social relations and reflexive collective action, they have developed a strong tendency towards product- and process-related specialization (Storper 1997; Maskell/ Malmberg 1999; Porter 2000). In the context of the rise of a new media industry cluster in Leipzig, Germany, I discuss those approaches in the next section of this paper which provide an understanding of complex industrial clustering processes. Therein socio-institutional settings, inter-firm communication and interactive learning play a decisive role in generating regional innovation and growth. However, I will also emphasize that interfirm networks can have a negative impact on competitiveness if social relations and linkages are too close, too exclusive and too rigid. Leipzig's historical role as a location of media-related businesses will be presented in section 3. As part of this, I will argue the need to view the present cluster of media firms as an independent phenomenon which is not a mere continuation of tradition. In section 4 the start-up and location processes are analyzed which have contributed to the rise of a new media industry cluster in Leipzig during the 1990's. Related to this, section 5 will discuss the role and variety of institutions which have developed in Leipzig and how they support specialization processes. This will be interpreted as a process of reembedding into a local context. In section 6, I will discuss how media firms have become over-embedded due to their strong orientation towards regional markets. This will be followed by some brief conclusions regarding the growth potential of the Leipzig media industry.
Die Ergebnisse jüngerer Untersuchungen legen die Hypothese nahe, dass vernetzte Strukturen und eingebettetes Handeln von Unternehmen positive Auswirkungen auf deren Wettbewerbsfähigkeit hat. Die Unternehmensbefragungen der Zulieferer und Dienstleister des IPH liefern Hinweise dafür, dass dies auch für die in der chemischen Produktion tätigen Unternehmen und Betriebe gilt. Im einzelnen lassen sich aus der durchgeführten Studie folgende Ergebnisse und Tendenzen erkennen: 1. Der Zuliefer- und Dienstleistungssektor des IPH besteht aus einer großen Bandbreite von verarbeitenden Betrieben sowie Handels- und Dienstleistungsbetrieben, von denen eine Vielzahl (972 von 2435 Betrieben) in der Region ansässig sind. 2. Bei 90% der Zulieferer und Dienstleister handelt es sich um Kleinst- und Kleinbetriebe (unter 10 bzw. unter 100 Beschäftigte), die zumeist einen relativ geringen Anteil ihres Umsatzes im IPH erzielen). Lediglich 15% der befragten Betriebe sind zu mehr als der Hälfte ihrer Umsätze von den Abnehmern im IPH abhängig. 3. Die erfassten Betriebe sind vor allem über ihre Absatzbeziehungen eng in die regionale Wirtschaft eingebunden. Mehr als 50% erzielen über drei Viertel ihres Umsatzes in der Rhein-Main-Region. 4. Etwa die Hälfte der Zulieferer und Dienstleister haben durch individuelle Leistungserstellung und kundenspezifische Beratung enge Abnehmerbeziehungen zum IPH aufgebaut. Allerdings spielen besonders kommunikationsintensive Arten der Zusammenarbeit (z.B. gemeinsame Entwicklungsarbeiten und Schulungen vor Ort) offenbar nur eine geringe Rolle. 5. Die Zuliefer- und Dienstleistungsbeziehungen sind oftmals durch eine große Kontinuität und Häufigkeit gekennzeichnet. Zwar haben viele Betriebe nur jährliche oder sporadische Kontakte, die Hälfte der Betriebe stehen aber wöchentlich oder sogar täglich in Kontakt mit ihrem bedeutendsten Abnehmer im IPH. 6. Hinsichtlich der Abstimmungsinhalte zwischen den IPH-Abnehmern und ihren Zulieferern und Dienstleistern zeigt sich, dass einfache, standardisierte Kontakte (z.B. Absprache von Liefertermin und -menge) überwiegen, während komplexe Inhalte (wie gegenseitiges Feedback und gemeinsame Fehlerbeseitigung) eher selten auftreten. 7. Tendenziell haben Betriebe mit besonders regelmäßiger, individuell abgestimmter und komplexer Zusammenarbeit ihre Rolle als Zulieferer und Dienstleister des IPH in den 1990er Jahren stärken können. Bei ihnen hat sich der Anteil des IPH am Umsatz zumeist erhöht. Demgegenüber scheinen Betriebe mit seltenen, einfachen und eher standardisierten Abstimmungen im Hinblick auf ihre Umsatzentwicklung im IPH weniger erfolgreich gewesen zu sein. 37 8. Intensive Über-Kreuz-Abstimmungen zwischen den Zulieferern und Dienstleistern des IPH sind eher eine Ausnahmeerscheinung. Die meisten Betriebe haben keine Kontakte zu anderen Zulieferern und Dienstleistern. In einer anschließenden Studie soll im Rahmen einer Diplomarbeit (Bearbeiterin: Katrin Griebel) untersucht werden, ob diese Befragungsergebnisse tatsächlich die Schlussfolgerung zulassen, dass Betriebe die Möglichkeiten zu einer intensiven, komplexen Zusammenarbeit mit ihren Abnehmern im IPH nicht voll ausschöpfen und dass deshalb Potenziale für Lernprozesse und Innovationen ungenutzt bleiben. Hierzu werden im März und April 2001 Interviews mit ausgewählten Zulieferern und Dienstleistern geführt.
There are few changes in the history of human existence comparable to urbanization in scope and potential to bring about biologic change. The transition in the developed world from an agricultural to an industrial-urban society has already produced substantial changes in human health, morphology and growth (Schell, Smith and Bilsborough, 1993, p.1). By the year 2000, about 50% of the world s total population will be living crowded in urban areas and soon thereafter, by the year 2025 as the global urban population reaches the 5 billion mark more of the world s population will be living in urban areas. This has enormous health consequences. By the close of the twenty-first century, more people will be packed into the urban areas of the developing world than are alive on the planet today (UNCHS (Habitat), 1996, p.xxi). Africa presents a particularly poignant example of the problems involved, as it has the fastest population and urban growth in the world as well as the lowest economic development and growth and many of the poorest countries, especially in Tropical Africa. Thus it exemplifies in stark reality many of the worst difficulties of urban health and ecology (Clarke, 1993, p.260). This essay is therefore concerned to analyse the trends of urbanization in Africa. This is followed by an overview of the environmental conditions of Africa s towns and cities. The subsequent section explores the links between the urban environment and health. Although the focus is with physical hazards it is important to note that the social milieu is also vital in the reproduction of health. The paper concludes by providing some policy recommendations.
Die Südwestpfalz : Umstrukturierung durch erfolgreiche Unternehmen ; Ergebnisse einer Lehrstudie
(2000)
Die Südwestpfalz gehört nicht zu den ökonomisch bevorzugten Regionen Deutschlands. Von vielen wird sie nicht einmal als eine einzige Region gesehen: Zwischen den beiden dominierenden Mittelstädten Pirmasens und Zweibrücken sowie dem sie umgebenden Landkreis Südwestpfalz bestehen zu große Unterschiede in der Geschichte und Wirtschaftsstruktur. Pirmasens hat etwa 48.000 Einwohner, Zweibrücken ca. 38.000, und der Landkreis beherbergt in teils großen Ortschaften insgesamt 105.000 Einwohner. Die gesamte Region, die sich über nahezu 50 km von West nach Ost und 30 km von Nord nach Süd an der Grenze zu Lothringen (Frankreich) und zum Saarland erstreckt, ist relativ dünn besiedelt und befindet sich in peripherer Lage. Sie war daher seit langem als militärischer Standort gut geeignet, vor allem für amerikanische Truppen, die unter anderem in Pirmasens und Zweibrücken bestehende Kasernen übernehmen konnten. Vielfältige Militäranlagen kamen hinzu, wie z.B. der Flugplatz in Zweibrücken, das Militärhospital in Münchweiler oder militärische Depots im südöstlichen Landkreis. Der Abzug der militärischen Einheiten in den frühen 1990er Jahren brachte für die gesamte Südwestpfalz ein neues Problem: die Konversion. Neben den langjährigen Wandel der Industriestrukturen trat der schockartige Abbau des Militärs als Wirtschaftsfaktor in der Region. Die Städte selbst und viele Nachbargemeinden sind durch alte Industrien gekennzeichnet, die seit langem unter einem erheblichen Wettbewerbsdruck aus dem Ausland leiden. Die Stadt Pirmasens ist das Zentrum der alten und im Landkreis noch vorherrschenden Schuhindustrie. Hier besteht ein industrielles Cluster mit vorund nachgelagerten Wirtschaftszweigen, etwa des Schuhmaschinenbaus, der Zulieferindustrien (Klebstoff-Chemie, Kunststoff-Industrie für Vorder- und Hinterkappen, Sohlenfertigung) und der spezialisierten Dienstleistungen (Design-Büros, Speditionen, Druckereien). Insgesamt ist dieses Cluster jedoch durch Erosion in seiner Existenz bedroht ist (vgl. Schamp/Bertram 1998, Bertram/Schamp 1999). Manche Unternehmen haben sich aus der Bindung an dieses Cluster erfolgreich abgenabelt, andere sind längst durch Konkurs und Stillegung verschwunden. Der Landkreis Südwestpfalz, der sich im Osten bis zum Weinbaugebiet der Pfalz und im Westen bis zum metallverarbeitenden Bezirk des Saarlandes erstreckt, gehört in weiten Teilen zum Cluster der Schuhindustrie. Der Strukturwandel hat auch diese seit langem erfasst. Um der ländlichen Region dennoch neue Tätigkeitsfelder zu erschließen, wurde in den vergangenen zehn Jahren der Tourismus teilweise erheblich gefördert - recht erfolgreich, auch wenn die Zielgruppen nicht zu den sehr 2 wohlhabenden gehören: Familien und Jugendgruppen im Sommer, ältere Menschen im Frühjahr und Herbst. Der Tourismus verbindet sich mit einer neuen und zunehmend bedeutenden Attraktion, dem Fabrikverkauf von Schuhen - besonders im nahen Umkreis um das neue Schuhmuseum in Hauenstein. In Zweibrücken herrschen dagegen teils große Zweigwerke der metallverarbeitenden Industrie vor. Daneben wurde die Stadt vor allem durch das Militär geprägt, während die Schuhindustrie nur noch geringe Bedeutung hatte. Damit verfügt die Region in ihren wichtigen Industriezweigen nicht über Wachstumsindustrien. Der Abbau des Militärs brachte zunächst erhebliche Probleme für den regionalen Arbeitsmarkt und die regionale Wirtschaft. Die Chancen der Konversion können erst langsam ergriffen werden. Grundsätzlich reichen überall die Arbeitsplätze nicht aus: Viele Menschen müssen weit pendeln. Im Juni 1999 lag die Arbeitslosigkeit im Landkreis bei 10%, in Zweibrücken bei 11%, in Pirmasens jedoch bei 17%. Etwa 48% der Arbeitslosen sind Frauen, ca. 35% sind Langzeitarbeitslose (alle Angaben nach Arbeitsamt Pirmasens, Presseinformationen) - beides sind Problemgruppen für die Arbeitsvermittlung. So steht die gesamte Region vor drei Problemen: 1. der überalterten Wirtschaftsstruktur mit anscheinend wenigen Ansätzen der Erneuerung, 2. der notwendigen Konversion der militärischen Anlagen und dem erforderlichen Ersatz der fortgefallenen Arbeitsplätze, 3. einer vergleichsweise hohen Arbeitslosigkeit und langen Arbeitswegen.
Characterised as the mighty capital of the eurozone (Sassen 1999, 83), Frankfurt is said to be a rising world city primarily due to its financial centre. This is reflected in the use of such common catchphrases as Bankfurt and Mainhattan for the city, as well as its reference in scientific publications. As Ronneberger and Keil (1995, 305) state, for instance, a service economy [...] mastered by the finance sector forms the basis for the continuing integration of Frankfurt into the international market. Frankfurt is the most important German as well as European financial centres. Thirteen of the 30 largest German banks and about two thirds of Germany s foreign banks are seated here. Frankfurt s stock exchange (ranked 4th in the world) is by far the biggest in Germany with a turnover-share of more than 80%. Its derivatives exchange (Eurex) aims to become the biggest in the world. As the host city for the European Central Bank, it is also the centre of European monetary policy. As a major node in the global financial network today, Frankfurt s specific functions within this network will be investigated in this paper. Unlike most other predominant national financial centres, Frankfurt has not continuously held this position in Germany s since the middle ages: It re-gained it s position from Berlin only after World War II. In contrast to the static phenomenon financial centre which is well covered in the literature emergence and development of financial centres is not as well understood. The study of the development of the financial centre Frankfurt after World War II gives insights into the dynamics of the self-reinforcing mechanisms within financial centres; the second topic covered in the paper. The paper is organised as follows: the remainder of this chapter looks at the method used in this study and the theory of financial centres with an emphasis on the basic approaches to the emergence of financial centres. After that it is asked whether Frankfurt meets the basic requirements for the concept of path dependence, i.e. that there are self-reinforcing mechanisms. After a positive answer to that, the development of Frankfurt as a financial centre is discussed as well as its role as a node in the world (financial) system today in chapter two. Chapter three provides some more or less speculative remarks about Frankfurt s future; the last chapter briefly summarises the findings of the paper.
One of the most important but less understood phenomena in the beginning of the 21st century has been a shift toward knowledge-based economic activity in the comparative advantage of modern industrialized countries. Two broad trends has been observed in the global economy. That is, the output from the world's science and technology system has been growing rapidly and the nature of investment has been changed (MILLER, 1996). The relative proportions of physical and intangible investment have changed considerably with the relative increase of intangible investments since the 1980s. In addition, there has been increased complementarity between physical and intangible investments and more important role of high technology in both kinds of investment (MILLER, 1996). Even in the newly industrialized countries, the growth of technology intensive industries, the increase of R&D activities and the growth of the knowledge intensive producer services have been common feature in recent years. In this change of the structure of productive assets, the role of knowledge is well recognized as the most fundamental resources in recent years (OECD, 1996; WORLD BANK, 1998). The development of information and communication technology (ICT) and globalisation trend have promoted this shift toward knowledge-based economy.
The globalisation of contemporary capitalism is bringing about at least two important implications for the emergence and significance of business services. First, the social division of labour steadily increases (ILLERIS 1996). Within the complex organisation of production and trade new intermediate actors emerge either from the externalisation of existing functions in the course of corporate restructuring policies or from the fragmentation of the production chain into newly defined functions. Second, competitive advantages of firms increasingly rest on their ability to innovate and learn. As global communication erodes knowledge advantages more quickly, product life cycles shorten and permanent organisational learning results to be crucial for the creation and maintenance of competitiveness. Intra- and interorganisational relations of firms now are the key assets for learning and reflexivity (STORPER 1997). These two aspects of globalisation help understand why management consulting - as only one among other knowledge intensive business services (KIBS) - has been experiencing such a boost throughout the last two decades. Throughout the last ten years, the business has grown annually by 10% on average in Europe. Management consulting can be seen first, as a new organisational intermediate and second, as an agent of change and reflexivity to business organisations. Although the KIBS industry may not take a great share of the national GDP its impact on national economies should not be underestimated. Estimations show that today up to 80% of the value added to industrial products stem from business services (ILLERIS 1996). Economic geographers have been paying more attention to KIBS since the late 1970s and focus on the transformation of the spatial economy through the emerging business services. This market survey is conceived as a first step of a research programme on the internationalisation of management consulting and as a contribution to the lively debate in economic geography. The management consulting industry is unlimited in many ways: There are only scarce institutional boundaries, low barriers to entry, a very heterogeneous supply structure and multiple forms of transaction. Official statistics have not yet provided devices of grasping this market and it may be therefore, that research and literature on this business are rather poor. The following survey is an attempt to selectively compile existing material, empirical studies and statistics in order to draw a sketchy picture of the European market, its institutional constraints, agents and dynamics. German examples will be employed to pursue arguments in more depth.
During the 1980s and early 1990s, the importance of small firm growth and industrial districts in Italy became the focus of a large number of regional development studies. According to this literature, successful industrial districts are characterized by intensive cooperation and market producer-user interaction between small and medium-sized, flexibly specialized firms (Piore and Sabel, 1984; Scott, 1988). In addition, specialized local labor markets develop which are complemented by a variety of supportive institutions and a tradition of collaboration based on trust relations (Amin and Robins, 1990; Amin and Thrift, 1995). It has also been emphasized that industrial districts are deeply embedded into the socio-institutional structures within their particular regions (Grabher, 1993). Many case studies have attempted to find evidence that the regional patterns identified in Italy are a reflection of a general trend in industrial development rather than just being historical exceptions. Silicon Valley, which is focused on high technology production, has been identified as being one such production complex similar to those in Italy (see, for instance, Hayter, 1997). However, some remarkable differences do exist in the institutional context of this region, as well as its particular social division of labor (Markusen, 1996). Even though critics, such as Amin and Robins (1990), emphasized quite early that the Italian experience could not easily be applied to other socio-cultural settings, many studies have classified other high technology regions in the U.S. as being industrial districts, such as Boston s Route 128 area. Too much attention has been paid to the performance of small and medium-sized firms and the regional level of industrial production in the ill-fated debate regarding industrial districts (Martinelli and Schoenberger, 1991). Harrison (1997) has provided substantial evidence that large firms continue to dominate the global economy. This does not, however, imply that a de-territorialization of economic growth is necessarily taking place as globalization tendencies continue (Storper, 1997; Maskell and Malmberg, 1998). In the case of Boston, it has been misleading to define its regional economy as being an industrial district. Neither have small and medium-sized firms been decisive in the development of the Route 128 area nor has the region developed a tradition of close communication between vertically-disintegrated firms (Dorfman, 1983; Bathelt, 1991a). Saxenian (1994) found that Boston s economy contrasted sharply with that of an industrial district. Specifically, the region has been dominated by large, vertically-integrated high technology firms which are reliant on proprietary technologies and autarkic firm structures. Several studies have tried to compare the development of the Route 128 region to Silicon Valley. These studies have shown that both regions developed into major 2 agglomerations of high technology industries in the post-World War II period. Due to their different traditions, structures and practices, Silicon Valley and Route 128 have followed divergent development paths which have resulted in a different regional specialization (Dorfman, 1983; Saxenian, 1985; Kenney and von Burg, 1999). In the mid 1970s, both regions were almost equally important in terms of the size of their high technology sectors. Since then, however, Silicon Valley has become more important and has now the largest agglomeration of leading-edge technologies in the U.S. (Saxenian, 1994). Saxenian (1994) argues that the superior performance of high technology industries in Silicon Valley over those in Boston is based on different organizational patterns and manufacturing cultures which are embedded in those socio-institutional traditions which are particular to each region. Despite the fact that Saxenian (1994) has been criticized for basing her conclusions on weak empirical research (i.e. Harrison, 1997; Markusen, 1998), she offers a convincing explanation as to why the development paths of both regions have differed.1 Saxenian s (1994) study does not, however, identify which structures and processes have enabled both regions to overcome economic crises. In the case of the Boston economy, high technology industries have proven that they are capable of readjusting and rejuvenating their product and process structures in such a way that further innovation and growth is stimulated. This is also exemplified by the region s recent economic development. In the late 1980s, Boston experienced an economic decline when the minicomputer industry lost its competitive basis and defense expenditures were drastically reduced. The number of high technology manufacturing jobs decreased by more than 45,000 between 1987 and 1995. By the mid 1990s, however, the regional economy began to recover. The rapidly growing software sector compensated for some of the losses experienced in manufacturing. In this paper, I aim to identify the forces behind this economic recovery. I will investigate whether high technology firms have uncovered new ways to overcome the crisis and the extent to which they have given up their focus on self-reliance and autarkic structures. The empirical findings will also be discussed in the context of the recent debate about the importance of regional competence and collective learning (Storper, 1997; Maskell and Malmberg, 1998). There is a growing body of literature which suggests that some regional economies During the 1980s and early 1990s, the importance of small firm growth and industrial districts in Italy became the focus of a large number of regional development studies. According to this literature, successful industrial districts are characterized by intensive cooperation and market producer-user interaction between small and medium-sized, flexibly specialized firms (Piore and Sabel, 1984; Scott, 1988). In addition, specialized local labor markets develop which are complemented by a variety of supportive institutions and a tradition of collaboration based on trust relations (Amin and Robins, 1990; Amin and Thrift, 1995). It has also been emphasized that industrial districts are deeply embedded into the socio-institutional structures within their particular regions (Grabher, 1993). Many case studies have attempted to find evidence that the regional patterns identified in Italy are a reflection of a general trend in industrial development rather than just being historical exceptions. Silicon Valley, which is focused on high technology production, has been identified as being one such production complex similar to those in Italy (see, for instance, Hayter, 1997). However, some remarkable differences do exist in the institutional context of this region, as well as its particular social division of labor (Markusen, 1996). Even though critics, such as Amin and Robins (1990), emphasized quite early that the Italian experience could not easily be applied to other socio-cultural settings, many studies have classified other high technology regions in the U.S. as being industrial districts, such as Boston s Route 128 area. Too much attention has been paid to the performance of small and medium-sized firms and the regional level of industrial production in the ill-fated debate regarding industrial districts (Martinelli and Schoenberger, 1991). Harrison (1997) has provided substantial evidence that large firms continue to dominate the global economy. This does not, however, imply that a de-territorialization of economic growth is necessarily taking place as globalization tendencies continue (Storper, 1997; Maskell and Malmberg, 1998). In the case of Boston, it has been misleading to define its regional economy as being an industrial district. Neither have small and medium-sized firms been decisive in the development of the Route 128 area nor has the region developed a tradition of close communication between vertically-disintegrated firms (Dorfman, 1983; Bathelt, 1991a). Saxenian (1994) found that Boston s economy contrasted sharply with that of an industrial district. Specifically, the region has been dominated by large, vertically-integrated high technology firms which are reliant on proprietary technologies and autarkic firm structures. Several studies have tried to compare the development of the Route 128 region to Silicon Valley. These studies have shown that both regions developed into major 2 agglomerations of high technology industries in the post-World War II period. Due to their different traditions, structures and practices, Silicon Valley and Route 128 have followed divergent development paths which have resulted in a different regional specialization (Dorfman, 1983; Saxenian, 1985; Kenney and von Burg, 1999). In the mid 1970s, both regions were almost equally important in terms of the size of their high technology sectors. Since then, however, Silicon Valley has become more important and has now the largest agglomeration of leading-edge technologies in the U.S. (Saxenian, 1994). Saxenian (1994) argues that the superior performance of high technology industries in Silicon Valley over those in Boston is based on different organizational patterns and manufacturing cultures which are embedded in those socio-institutional traditions which are particular to each region. Despite the fact that Saxenian (1994) has been criticized for basing her conclusions on weak empirical research (i.e. Harrison, 1997; Markusen, 1998), she offers a convincing explanation as to why the development paths of both regions have differed.1 Saxenian s (1994) study does not, however, identify which structures and processes have enabled both regions to overcome economic crises. In the case of the Boston economy, high technology industries have proven that they are capable of readjusting and rejuvenating their product and process structures in such a way that further innovation and growth is stimulated. This is also exemplified by the region s recent economic development. In the late 1980s, Boston experienced an economic decline when the minicomputer industry lost its competitive basis and defense expenditures were drastically reduced. The number of high technology manufacturing jobs decreased by more than 45,000 between 1987 and 1995. By the mid 1990s, however, the regional economy began to recover. The rapidly growing software sector compensated for some of the losses experienced in manufacturing. In this paper, I aim to identify the forces behind this economic recovery. I will investigate whether high technology firms have uncovered new ways to overcome the crisis and the extent to which they have given up their focus on self-reliance and autarkic structures. The empirical findings will also be discussed in the context of the recent debate about the importance of regional competence and collective learning (Storper, 1997; Maskell and Malmberg, 1998). There is a growing body of literature which suggests that some regional economies an develop into learning economies which are based on intra-regional production linkages, interactive technological learning processes, flexibility and proximity (Storper, 1992; Lundvall and Johnson, 1994; Gregersen and Johnson, 1997). In the next section of this paper, I will discuss some of the theoretical issues regarding localized learning processes, learning economies and learning regions (see, also, Bathelt, 1999). I will then describe the methodology used. What follows is a brief overview of how Boston s economy has specialized in high technology production. The main part of the paper will then focus on recent trends in Boston s high technology industries. It will be shown that the high technology economy consists of different subsectors which are not tied to a single technological development path. The various subsectors are, at least partially, dependent on different forces and unrelated processes. There is, however, tentative evidence which suggests that cooperative behavior and collective learning in supplierproducer- user relations have become important factors in securing reproductivity in the regional structure. The importance of these trends will be discussed in the conclusions.
Therapeutische Konzepte der Radioiodtherapie bei der Autoimmunhyperthyreose vom Typ Morbus Basedow
(2004)
In der vorliegenden Arbeit wurden retrospektiv Ergebnisse einer Radioiodtherapie bei 126 konsekutiven Patienten (19 Männer; 107 Frauen, Alter 50,9±14,6, Median 51,5 Jahre) analysiert, die im Zeitraum von 1992 bis 2001 wegen einer Autoimmuthyreopathie vom Typ M. Basedow in der Klinik für Nuklearmedizin der Gutenberg Universität Mainz behandelt wurden. Ziel der Arbeit war es, die Effektivität unterschiedlicher Therapieansätze zu vergleichen sowie Faktoren, welche einen Einfluss auf die Therapieergebnisse haben könnten, zu ermitteln, wobei Anamnese, Schilddrüsenvolumen, Stoffwechsellage und Thyreostase zum Zeitpunkt der Therapie besondere Berücksichtigung fanden. Bei 47 Patienten erfolgte die Radioiodtherapie nach einem funktionsoptimierten Konzept mit dem Ziel (150 Gy), eine Euthyreose zu erreichen. 79 Patienten wurden nach ablativem Konzept mit dem Ziel einer posttherapeutischen Hypothyreose behandelt. Die Dosis in dieser Gruppe betrug bei 19 Patienten 200 Gy; bei 29 Patienten 250 Gy; bei 15 Patienten 275 Gy und bei 16 Patienten 300 Gy. In 21% aller Fälle erfolgte die Therapie bei Erstmanifestation, bei 15% nach dem 1. Rezidiv und bei 64 % nach dem 2. Rezidiv. Bezüglich der Thyreostase, der Stoffwechsellage und des prätherapeutischen Radioiod-Uptakes waren die Gruppen nicht signifikant unterschiedlich. Entsprechend den Therapiekonzepten wurde bei funktionsorientiertem Konzept im Median 372 MBq als Aktivität errechnet und 400 MBq appliziert (14,3 MBq/ml). Für Patienten mit ablativem Therapiekonzept wurden im Median 514 MBq errechnet und 600 MBq appliziert (28,6 MBq/ml). Erreicht wurden in der ersten Gruppe Organdosen zwischen 80 und 380 Gy (Median 180 Gy). Bei 7 Patienten (14%) wurde dabei der angestrebte Bereich nicht erreicht, bei 27 Patienten (57%) erreicht und bei 13 Patienten (29%) überschritten. Der Variationskoeffizient lag bei 52%. In der Gruppe mit ablativem Ziel erreichten die Organdosen 56-685 Gy (Median 275 Gy). Bei 67 der 79 Patienten (85%) lag die erreichte Dosis wie geplant oder höher, bei 12 Patienten (15%) wurde die angestrebte Dosis nicht erreicht. Nur bei 3 der 47 Patienten (6%) wurde eine Euthyreose erreicht. Eine Hyperthyreose lag dagegen bei 22 Patienten (47%) vor. 22 Patienten (47%) wiesen posttherapeutisch eine Hypothyreose auf. Dagegen waren in der Gruppe mit ablativer Therapie 61 Patienten (77%) wie erwünscht hypothyreot und 18 (23%) hatten eine Resthyperthyreose. Patienten, die nach der ablativen Radioiodtherapie eine erwünschte Hypothyreose erreichten, hatten eine kürzere eff. HWZ und einen höherer Radioiod-Uptake (4,7 Tage; 52%) als Therapieversager (5,4 Tage; 49%) sowie ein geringeres Schilddrüsenvolumen nach der Behandlung (7,2±4,7 vs. 21,5±13,3 ml). Zehn Patienten nach ablativer Therapie (n=10) hatten trotz erreichter Dosis >250 Gy eine Resthyperthyreose. Das Schilddrüsenvolumen lag bei diesen Patienten zwischen 14 und 70 ml (Mittelwert: 29,5 ml). Die posttherapeutische Volumenreduktion war bei funktionsorientierter Therapie geringer als bei ablativem Konzept (um 55% vs. 65%). Die TRAK und anti-TPO-AK-Titer waren in beiden Gruppen gegenüber dem Ausgangswert angestiegen. Dabei waren die posttherapeutischen Konzentrationen bei funktionsoptimiertem Konzept höher als nach ablativer Therapie. Die Radioiodtherapie wurde in beiden Gruppen gut toleriert. Beschwerden durch eine strahleninduzierte Thyreoiditis zeigten sich bei 13 Patienten (10%), die mit Eiskrawatte und nichtsteroidale Antiphlogistika behandelt wurden. Unter Cortisonprophylaxe (n=29) wurde nur bei einem Patienten eine Verschlechterung der vorbestehenden EO beobachtet. Das Schilddrüsenvolumen wurde als wesentlicher, den Therapieerfolg bestimmender Parameter bei ablativem Konzept in der multivariaten Analyse identifiziert. So hatten Patienten mit einem Schilddrüsenvolumen ab 25 ml ein 10-fach höheres Risiko für ein Versagen der Radioiodtherapie in Relation zu Patienten, die eine Schilddrüse <25 ml hatten. Die Radioiodtherapie mit ablativen Dosen erweist sich in einem Iodmangelgebiet gegenüber der funktionsorientierten Behandlung als eine effektivere Therapie. Dieses Konzept geht mit niedrigerem Risiko der Verschlechterung einer vorbestehenden EO (unter Cortisonprophylaxe) einher. Es stellt sich bei diesem Konzept heraus, dass die Thyreostase in niedriger Dosierung keinen bedeutenden Einfluss auf den Therapieerfolg hatte. Die Auswertung der Daten bestätigt, dass die aktuell verwendete individuelle Dosisplanung mittels Radioiodtest eine präzise Abschätzung der notwendigen Aktivität erlaubt. Ausgehend von Ergebnissen diese Studie erscheint bei ablativem Konzept eine volumenadaptierte Korrektur der Zieldosis sinnvoll: während bei Schilddrüsenvolumina zwischen 25-40 ml eine Dosis von 250 Gy (entsprechend aktuellen Empfehlungen der Leitlinie der DGN) optimal ist, sollten bei Volumina > 40 ml höhere Zieldosen gewählt werden. Bei Patienten mit Schilddrüsenvolumina < 20 ml ist eine Dosis von 200 Gy ausreichend.
Die Diskussion der letzten Jahre um Managervergütungen, insbesondere seit der Mannesmann-Übernahme, hat Defizite in der lex lata hierzu ausgemacht. Dies und die weitgehende Nichtbefolgung der Empfehlungen des Deutschen Corporate Governance-Kodex zur Transparenz der Vorstandsvergütungen durch die große Mehrzahl der börsennotierten Gesellschaften erfordern eine Reaktion des Gesetzgebers. Eine gesetzliche Regelung erübrigt sich auch dann nicht, wenn sich künftig eine Mehrheit der börsennotierten Gesellschaften den Empfehlungen des Kodex anschließen sollte. Die Gründe hierfür im einzelnen und die Zielrichtung des Entwurfs ergeben sich aus der beigefügten Entwurfsbegründung. Der Kodex soll nicht entbehrlich gemacht, sondern durch einen gesetzlichen Mindeststandard unterstützt und ergänzt werden. Zusammengefaßt sieht der folgende Gesetzesvorschlag eine Veröffentlichung aller Vorstandsbezüge in börsennotierten Gesellschaften im Anhang zum Jahres- und Konzernabschluß vor. Dabei sollen als Mindeststandard die Angaben für das höchstbezahlte Vorstandsmitglied individualisiert, unter Namensnennung, erfolgen müssen. Die Angaben sind vom Abschlußprüfer zu prüfen. Ferner hat der Aufsichtsrat in seinem Bericht an die Hauptversammlung zur Angemessenheit der Vorstandsbezüge und zur Vergütungspolitik der Gesellschaft Stellung zu nehmen; die Aktionäre als die materiell Betroffenen können in der Hauptversammlung hierzu Fragen stellen und durch den Entlastungsbeschluß ihre Billigung oder Mißbilligung zum Ausdruck bringen. Der Gesetzesvorschlag setzt auf Transparenz und lehnt die Einführung weiterer materieller Kriterien zur Bemessung oder Begrenzung von Vorstandsvergütungen jenseits des § 87 AktG wie Deckelung der Vergütung durch absolute Höchstbeträge oder Bindung an Arbeitnehmervergütungen o.ä. ab. Insgesamt schließt sich der Entwurf Vorbildern entwickelter Kapitalmarktrechte, insbesondere der britischen Lösung an, die gleichfalls auf zwingende detaillierte Offenlegungs-, Prüfungs- und Rechenschaftspflichten setzt und deren Einführung und Befolgung nicht der freiwilligen Selbstregulierung überläßt.
Taking shareholder protection seriously? : Corporate governance in the United States and Germany
(2003)
The paper undertakes a comparative study of the set of laws affecting corporate governance in the United States and Germany, and an evaluation of their design if one assumes that their objective were the protection of the interests of minority outside shareholders. The rationale for such an objective is reviewed, in terms of agency cost theory, and then the institutions that serve to bound agency costs are examined and critiqued. In particular, there is discussion of the applicable legal rules in each country, the role of the board of directors, the functioning of the market for corporate control, and (briefly) the use of incentive compensation. The paper concludes with the authors views on what taking shareholder protection seriously, in each country s legal system, would require.
Mit dem 3. Finanzmarktförderungsgesetz wurde im Jahr 1998 die Investmentaktiengesellschaft in das deutsche Investmentrecht eingeführt. Die in Anlehnung an die USamerikanische "Investment Company" geschaffene Rechtsform sollte das deutsche Kapitalanlagegeschäft beleben und insbesondere für ausländische Fondssponsoren attraktiver machen. Diese Erwartungen wurden enttäuscht: Die Bestimmungen zur Investmentaktiengesellschaft sind bis heute totes Recht geblieben.1 Dies haben einige Autoren frühzeitig vorhergesehen.2 Im Zuge der anstehenden tiefgreifenden Reform des Investmentrechts durch das Gesetz zur Modernisierung des Investmentwesens und zur Besteuerung von Investmentvermögen (Investmentmodernisierungsgesetz) 3 wird auch das Recht der Investmentaktiengesellschaft wesentlich geändert. Neue Wege beschreitet der Gesetzgeber dabei insbesondere mit der Einführung der Investmentaktiengesellschaft mit veränderlichem Kapital. Dieser zur Vervollständigung der Bestimmungen zur Investmentaktiengesellschaft in das deutsche Recht eingeführte Typus wirft aus Sicht des Aktienrechts eine Vielzahl interessanter Fragen auf, denen im Folgenden nachgegangen werden soll. Zuvor sollen jedoch die investmentrechtlichen Rahmenbedingungen der Investmentaktiengesellschaft und der Investmentaktiengesellschaft mit veränderlichem Kapital im Besonderen kurz beleuchtet werden.
1. Die Vorschrift des § 18 Abs. 2 WpÜG ist gegen den zu weit geratenen Wortlaut unter Berücksichtigung des Regelungszwecks einschränkend dahin auszulegen, dass ein Angebot mit einem Widerrufs- oder Rücktrittsvorbehalt versehen werden kann, sofern der Bieter oder ihm nach § 18 Abs. 1 WpÜG zuzurechnende Personen oder Unternehmen den Eintritt des Widerrufs- oder Rücktrittsgrunds nicht ausschließlich selbst herbeiführen können. 2. Eine Entscheidung zur Abgabe eines Angebots i.S. des § 10 Abs. 1 Satz 1 WpÜG ist gegeben, wenn die Entscheidung nur noch von Umständen abhängt, deren Eintritt der Bieter oder ihm nach § 18 Abs. 1 WpÜG zuzurechnende Personen oder Unternehmen nicht ausschließlich selbst herbeiführen können, die also nicht aus dem Herrschaftsbereich des Bieters stammen. 3. Der Bieter kann die Entscheidung zur Abgabe eines Angebots analog § 18 Abs. 2 WpÜG ebenso wie ein Angebot unter einen Widerrufs- oder Rücktrittsvorbehalt stellen, sofern der Bieter oder ihm nach § 18 Abs. 1 WpÜG zuzurechnende Personen oder Unternehmen den Eintritt des Widerrufs- oder Rücktrittsgrunds nicht ausschließlich selbst herbeiführen können. Zulässig ist analog §§ 18 Abs. 1, 25 WpÜG zudem ein auf die Zustimmung der Gesellschafterversammlung des Bieters bezogener Vorbehalt. Darüber hinaus darf der Bieter eine Angebotsankündigung mit einem Finanzierungsvorbehalt für den Fall versehen, dass die Gesellschafterversammlung nicht vor Veröffentlichung der Angebotsunterlage einer für die Finanzierung des Angebots erforderlichen Kapitalmaßnahme zustimmt. 4. Der Widerruf der Entscheidung zur Abgabe eines Angebots ist als actus contrarius zu der Angebotsankündigung erst mit Veröffentlichung analog § 10 Abs. 3 Satz 1 WpÜG beachtlich. 5. Mit ordnungsgemäß veröffentlichtem Widerruf der Entscheidung wird der Bieter von der Pflicht zur Übermittlung einer Angebotsunterlage an die BaFin (§ 14 Abs. 1 Satz 1 WpÜG) sowie zur Veröffentlichung einer Angebotsunterlage (§ 14 Abs. 2 Satz 1 WpÜG) frei. Eine Untersagung des Angebots gemäß § 15 Abs. 1 Nr. 3 oder 4 WpÜG kommt damit nicht mehr in Betracht. Darüber hinaus stellt die Nichtübermittlung oder Nichtveröffentlichung der Angebotsunterlage in diesem 15 Fall keine Ordnungswidrigkeit gemäß § 60 Abs. 1 Nr. 1 a) oder Nr. 2 a) WpÜG dar.
Wer die unmittelbare oder mittelbare Kontrolle über eine börsennotierte Aktiengesellschaft erlangt hat, muss nach § 35 Abs. 2 WpÜG allen anderen Aktionären ein Pflichtangebot unterbreiten. § 37 Abs. 1 WpÜG gibt der Bundesanstalt für Finanzdienstleistungsaufsicht (BAFin) die Möglichkeit, den Erwerber der Kontrolle von der Angebotspflicht zu befreien. Bislang lehnt es die BAFin ab, die Aktionäre der Zielgesellschaft an dem Befreiungsverfahren zu beteiligen. Das Oberlandesgericht Frankfurt hat die Behörde in einem kürzlich im Eilverfahren dazu ergangenen Beschluss, der die ProSiebenSat.1 Media AG betraf, darin bestätigt. Der Verf. legt im folgenden dar, warum seiner Ansicht nach die Aktionäre die Zielgesellschaft jedenfalls einen Anspruch auf ermessensfehlerfreie Entscheidung über die Hinzuziehung zum Befreiungsverfahren nach § 13 Abs. 2 Satz 1 VwVfG haben. Darüber hinaus werden einige Aspekte des konkreten Falls, es ging um eine Befreiung im Zusammenhang mit der Sanierung der Zielgesellschaft nach § 37 WpÜG i. V. m. § 9 Satz 1 Nr. 3 WpÜG-Angebotsverordnung, näher beleuchtet.
Regulierung von Hedge Fonds in Deutschland : Bestandsaufnahme, praktische Erkenntnisse und Ausblick
(2003)
Die alternative Kapitalanlage über Hedge Fonds gewinnt in Deutschland zunehmend an Bedeutung. In der jüngsten Vergangenheit wurde dieses Thema daher auch in der rechtswissenschaftlichen Literatur aufgegriffen, was zu mehr Transparenz geführt hat. Allerdings ist das deutsche Investmentrecht und insbesondere der Spezialbereich "Hedge Fonds" nach wie vor eine Praktikerdomäne. Deshalb soll im Folgenden zunächst eine Bestandaufnahme erfolgen. Darüber hinaus werden aktuelle Entwicklungen beschrieben. Dabei lassen die Verfasser ihre praktischen Erkenntnisse einfließen. Vor diesem Hintergrund wird anschließend die vom Gesetzgeber für Anfang 2004 geplante Hedge Fonds-Regulierung gewürdigt.
Am 30. Juli 2002 hat der US-amerikanische Präsident George Bush den Sarbanes-Oxley Act of 2002 unterzeichnet. Es handelt sich dabei um ein Artikelgesetz, das vor allem Änderungen im Securities and Exchange Act of 1934 ( Exchange Act ) vorsieht. Das Gesetz bezweckt nach der dem Gesetzestext vorangestellten Begründung den Schutz von Anlegern durch genauere und verlässlichere wertpapierrechtliche Publizitätspflichten. Der Gesetzgeber möchte sicherstellen, dass Unternehmen richtige und verlässliche Angaben machen, wenn sie periodisch bei der USamerikanischen Wertpapieraufsichtsbehörde SEC (Securities and Exchange Commission) einzureichende Berichte oder Ad-hoc Mitteilungen veröffentlichen.
Effiziente Zirkulationsmärkte für Wertpapiere sind wegen ihres Zusammenhanges mit den Emissionsmärkten für die Kapitalversorgung der Unternehmen ebenso unentbehrlich wie als Informationsquelle und Handelsplattform für institutionelle und private Investoren. Die juristische Aufarbeitung der Vorfälle am Neuen Markt weist deutlich auf Defizite des gegenwärtigen Systems hin. Eine überzeugende Ordnung der Sekundärmarktpublizität macht sich die mit einer richtig justierten Haftung verbundenen Anreize und die Privatinitiative betroffener Anleger als Regulierungsinstrument zunutze. Der nachstehende Beitrag greift Empfehlungen zur Verbesserung des Haftungsregimes für Falschinformation des Kapitalmarktes auf und erörtert Einzelfragen.