Refine
Year of publication
Document Type
- Article (31538)
- Part of Periodical (11578)
- Book (8336)
- Doctoral Thesis (5743)
- Part of a Book (3973)
- Working Paper (3393)
- Review (2946)
- Contribution to a Periodical (2368)
- Preprint (2359)
- Conference Proceeding (1748)
Language
- German (42927)
- English (30353)
- French (1060)
- Portuguese (840)
- Spanish (309)
- Croatian (302)
- Multiple languages (263)
- Italian (198)
- mis (174)
- Turkish (168)
Has Fulltext
- yes (76918) (remove)
Keywords
- Deutsch (1078)
- Literatur (873)
- taxonomy (771)
- Deutschland (553)
- Rezension (514)
- new species (457)
- Rezeption (354)
- Frankfurt <Main> / Universität (341)
- Übersetzung (329)
- Geschichte (301)
Institute
- Medizin (7823)
- Präsidium (5225)
- Physik (4811)
- Extern (2738)
- Wirtschaftswissenschaften (2705)
- Gesellschaftswissenschaften (2375)
- Biowissenschaften (2209)
- Biochemie und Chemie (1982)
- Frankfurt Institute for Advanced Studies (FIAS) (1887)
- Informatik (1729)
The disappearance of flow
(1995)
We investigate the disappearance of collective flow in the reaction plane in heavy-ion collisions within a microscopic model (QMD). A systematic study of the impact parameter dependence is performed for the system Ca+Ca. The balance energy strongly increases with impact parameter. Momentum dependent interactions reduce the balance energies for intermediate impact parameters b ~ 4.5 fm. Dynamical negative flow is not visible in the laboratory frame but does exist in the contact frame for the heavy system Au+Au. For semi-peripheral collisions of Ca+Ca with b ~ 6.5 fm a new two-component flow is discussed. Azimuthal distributions exhibit strong collectiv flow signals, even at the balance energy.
We investigate hadron production as well as transverse hadron spectra in nucleus-nucleus collisions from 2 A.GeV to 21.3 A.TeV within two independent transport approaches (UrQMD and HSD) that are based on quark, diquark, string and hadronic degrees of freedom. The comparison to experimental data demonstrates that both approaches agree quite well with each other and with the experimental data on hadron production. The enhancement of pion production in central Au+Au (Pb+Pb) collisions relative to scaled pp collisions (the 'kink') is well described by both approaches without involving any phase transition. However, the maximum in the K+/Pi+ ratio at 20 to 30 A.GeV (the 'horn') is missed by ~ 40%. A comparison to the transverse mass spectra from pp and C+C (or Si+Si) reactions shows the reliability of the transport models for light systems. For central Au+Au (Pb+Pb) collisions at bombarding energies above ~ 5 A.GeV, however, the measured K +/- m-theta-spectra have a larger inverse slope parameter than expected from the calculations. The approximately constant slope of K+/-spectra at SPS (the 'step') is not reproduced either. Thus the pressure generated by hadronic interactions in the transport models above ~ 5 A.GeV is lower than observed in the experimental data. This finding suggests that the additional pressure - as expected from lattice QCD calculations at finite quark chemical potential and temperature - might be generated by strong interactions in the early pre-hadronic/partonic phase of central Au+Au (Pb+Pb) collisions.
Es wurde in dieser Arbeit gezeigt, daß es möglich ist, die der Spin-Eichtheorie zugrundeliegende Lagrangedichte so zu verallgemeinern, daß die aus ihr folgende Higgsfeldgleichung eine gravitationsähnliche Wechselwirkung enthält. Der symmetrische Teil des kanonische Energie-Impulstensors des Higgsfeldes tritt als Quelle der symmetrischen Bewegungsgleichung der angeregten Higgsfelder in Erscheinung. Ein Vergleich der zweiten Ordnung des symmetrischen Teils der Higgsfeldgleichung mit der zweiten Ordnung der Einsteingleichung im materiefreien Fall zeigt, daß beide bis auf einen antisymmetrischen Divergenzterm A m n a a der den Energie Impuls-Erhaltungssatz nicht beeinflußt, übereinstimmen. Geht man wegen der Nichtlokalität des EIST's des Gravitationsfeldes, auf der Seite der klassischen Beschreibung zu einem grobkörnigen EIST über, so stimmt dieser mit dem EIST des Higgsfeldes überein. Sieht man von in kleinen Raumzeitvolumen stark uktuierenden Termen ab, so sind die Differentialgleichungen von Gravitations und Higgsfeldwellen bis zur zweiten Ordnung identisch. Betrachtet man eine Raumzeit mit fermionischer Materie, so stimmt die erste Ordnung der Feldgleichungen ebenfalls überein. Die Higgsfeldgleichung in zweiter Ordnung koppelt halb so stark an die fermionische Materie wie es die klassische Gleichung in zweiter Ordnung tut, was auf zusätzliche Spinanteile der Higgsfelder zurückzuführen ist. Die Arbeit hat damit gezeigt, daß die durch das Higgsfeld vermittelte Kraft die Eigenschaften einer gravitativen Wechselwirkung besitzt. Daraus ergibt sich, daß nun folgende Punkte interessant sind: 1) Die in dieser Arbeit nicht betrachteten antisymmetrischen Anteile der Higgsfeldgleichung sollten auf ihre physikalische Relevanz untersucht werden, um eventuell entstehende Torsions und Nichtmetrizitätsanteile aufzuzeigen. 2) Die durch den Divergenzterm auftretenden Unterschiede der zweiten Ordnung der Spin-Eichtheorie mit der klassischen Theorie sollten genauer untersucht werden, um mögliche meßbare Unterschiede offen zu legen und die Interpretation des A m n a a-terms zu klären 3) Die in der Spin-Eichtheorie mögliche mikroskopische Betrachtungsweise sollte man quantentheoretisch formulieren und alle der Spin-Eichtheorie eigenen Felder quantisieren. 4) Der in dieser Arbeit betrachtete Iso-skalare Fall sollte Iso-vektoriell verallgemeinert werden, um so eine Vereinheitlichung mit den anderen drei Wechselwirkungen zu ermöglichen
Report-no: UFTP-492/1999 Journal-ref: Phys.Rev. C61 (2000) 024909 We investigate flow in semi-peripheral nuclear collisions at AGS and SPS energies within macroscopic as well as microscopic transport models. The hot and dense zone assumes the shape of an ellipsoid which is tilted by an angle Theta with respect to the beam axis. If matter is close to the softest point of the equation of state, this ellipsoid expands predominantly orthogonal to the direction given by Theta. This antiflow component is responsible for the previously predicted reduction of the directed transverse momentum around the softest point of the equation of state.
Bei einigen Krankheiten bekommt die Knochenmarkstransplantation bzw. die Transplantation peripherer Blutstammzellen als Therapiemöglichkeit eine wachsende Bedeutung. Trotz aller Fortschritte birgt diese Therapieform die Gefahr von schwer zu kontrollierenden Komplikationen (Graft-versus-Host-Krankheit, Host-versus-Graft-Krankheit, lebensbedrohliche Infektionen), die die Behandlungsmöglichkeiten einschränken. Die Eigenschaften und Fähigkeiten von Natürlichen Killer-Zellen (NK-Zellen) eröffnen vielversprechende Möglichkeiten, die Komplikationen einer Stammzelltransplantation besser zu kontrollieren. Dafür ist es notwendig, NK-Zellen in möglichst reiner Form und ausreichender Menge bereitzustellen. Seit einigen Jahren stehen verschiedene immunomagnetische Antikörper zur Verfügung, mit denen Zellen gezielt selektiert oder depletiert werden können. Allerdings sind die Herstellerangaben zu Versuchsbedingungen an experimentellen Ansätzen orientiert. Um die Antikörper im klinischen Bereich in entsprechenden Größenordnungen einzusetzen, sind Versuchsansätze in klinischen Größenmaßstäben nötig. In dieser Arbeit wird eine Methode zur immunomagnetischen T-Zell-Depletion bei der Herstellung von NK-Zell-Präparaten untersucht. Mit Hilfe von monoklonalen Antikörpern werden Zellen immunomagnetisch markiert und in einem starken Magnetfeld getrennt. Es wird ein etablierter Einzelantikörper („CD3 MicroBeads“) mit einem neuen Antikörper Kit („NK isolation kit“) verglichen. In der Versuchsreihe sollen die Wahl des Antikörpers, die Antikörpermenge, und die Flussgeschwindigkeit durchs Magnetfeld (Auftraggeschwindigkeit) hinsichtlich ihres Einflusses auf die T-Zell-Depletion, die T-Zell-Restkontamination nach Depletion und den NK-Zell-Ertrag untersucht werden. Bei einem der verwendeten Antikörper („NK isolation kit“) interessiert außerdem die NK-Zell-Reinheit des resultierenden NK-Zell-Präparates. Während die T-Zell-Depletion mit dem „NK isolation kit“ tendenziell größer ist als mit „CD3 MicroBeads“, unterscheiden sich beide Antikörper nicht signifikant in der T-Zell-Restkontamination. Mit „CD3 MicroBeads“ kann allerdings eine verlässlichere T-Zell-Restkontamination mit einer geringeren Schwankungsbreite der Ergebnisse erreicht werden. Weiterhin liefern „CD3 MicroBeads“ einen signifikant höheren NK-Zell-Ertrag, da mit dem „NK isolation kit“ abhängig von der eingesetzten Antikörpermenge und der damit zusammenhängenden Antikörperkonzentration mehr NK-Zellen in der magnetischen Trennsäule verloren gehen. Dabei deutet sich an, dass bei einer höheren Auftraggeschwindigkeit der NK-Zell-Verlust geringer ist. Die Menge der eingesetzten Antikörper korreliert beim „NK isolation kit“ positiv mit der erzielten NK-Zell-Reinheit. Die vorgelegten Ergebnisse zeigen, dass sowohl mit einem Einzelantikörper („CD3 MicroBeads“) also auch mit einem Antikörper-Cocktail („NK isolation kit“) eine ausreichende Depletion von T-Zellen in einem klinischen Maßstab möglich ist. Bei beiden Verfahren kann mit einem Separationsschritt eine höhere T-Zell-Depletion erreicht werden, als mit anderen oder ähnlichen in der Literatur beschriebenen Verfahren. Während mit dem „NK isolation kit“ in einem Depletionsschritt NK-Zell-Präparate mit bis zu 90%iger Reinheit hergestellt werden können, müsste sich nach der T-Zell-Depletion mit „CD3 MicroBeads“ noch eine NK-Zell-Positivselektion anschließen. Während die Auftraggeschwindigkeit von untergeordneter Bedeutung ist, spielt die eingesetzte Antiköpermenge beim „NK isolation kit“ eine signifikante Rolle.
REVTEX, 27 pages incl. 10 figures and 3 tables; Phys. Rev. C (in press) Journal-ref: Phys.Rev. C62 (2000) 064906. We study the local equilibrium in the central V = 125 fm3 cell in heavy-ion collisions at energies from 10.7 A GeV (AGS) to 160 A GeV (SPS) calculated in the microscopic transport model. In the present paper the hadron yields and energy spectra in the cell are compared with those of infinite nuclear matter, as calculated within the same model. The agreement between the spectra in the two systems is established for times t >= 10 fm/c in the central cell. The cell results do not deviate noticeably from the infinite matter calculations with rising incident energy, in contrast to the apparent discrepancy with predictions of the statistical model (SM) of an ideal hadron gas. The entropy of this state is found to be very close to the maximum entropy, while hadron abundances and energy spectra differ significantly from those of the SM.
Es wurden Daten von 140 Patienten mit penetrierendem Thorax- und Abdominaltrauma des Zeitraums von 1986 - 06/1996 retrospektiv ausgewertet. Die Patienten wurden anhand einer Reihe von Beurteilungskriterien hinsichtlich Unfallhergang, Verletzungslokalisation, Versorgungsstrategie und Komplikationen während des stationären Aufenthaltes sowie der Letalität untersucht. Von besonderem Interesse waren die prophylaktischen und therapeutischen Antibiotikagaben. Es konnte eine Übersicht hinsichtlich der präklinischen und klinischen Patientenversorgung mit penetrierenden Thorax- und Abdominaltraumen geschaffen werden. Dabei zeigte sich eine mangelhafte Dokumentation zur Erarbeitung der Versorgungsstrategie (Anamnese, Verlauf, etc.) sowie gehäuftes Fehlen einzelner Dokumentationsbögen (Notarzteinsatzprotokoll, Laborbericht, Op-Bericht, etc.). Eine vollständige Bewertung der Versorgungsqualität - und quantität war somit nicht immer möglich. Vorraussetzung zur Identifizierung von Problemen und nachfolgend möglicher Einführung prozessverbessernder Maßnahmen ist jedoch eine solide Datengrundlage. Penetrierende Thorax- und Abdominaltraumen entstanden vor allem im Rahmen von Gewalttaten und Suizidversuchen. Fast die Hälfte der Unfälle ereigneten sich im jungen Erwachsenenalter. Es handelte sich zumeist um isolierte Stichverletzungen bei überwiegend männlichen Patienten. Konkrete Verletzungsmechanismen waren Stich- und Schussverletzungen. Zweihöhlenverletzungen wurden in 10% der Fälle diagnostiziert. Pfählungsverletzungen kamen nicht vor. Es wurden 95% der Patienten chirurgisch behandelt. Davon wurden 67% operiert. Insgesamt 5% der Patienten konnten konservativ behandelt werden. Isolierte penetrierende Thoraxverletzungen wurden bei 46% der Patienten beobachtet. Männer waren deutlich häufiger betroffen wie Frauen. Das durchschnittliche Alter betrug für diese Patienten 33,8 Jahre. An thorakalen Verletzungen wurden überwiegend Pneumo- und / oder Hämatothoraces beobachtet (44% bzw. 31%). Es zeigten sich keine Spannungspneumothoraces. In 6% der Fälle bestanden Verletzungen großer herznaher extrapulmonaler Gefäße. In 12,5% aller penetrierenden Thoraxtraumata wurde das Herz oder der Herzbeutel verletzt. Die Mehrzahl der Patienten (64%) mit Thoraxtrauma konnte mit Thoraxdrainagen suffizient behandelt werden. 4 Patienten konnten unter stationärer Beobachtung primär konservativ behandelt werden. Die Notfallthorakotomie war in 12 Fällen (17%) indiziert. Rethorakotomien waren nicht notwendig. Der durchschnittliche Verletzungsschweregrad I.S.S für Patienten mit Thoraxtrauma betrug 12,6. Die durchschnittliche Gesamthospitalisationszeit bei Patienten mit isolierter thorakaler Verletzung betrug 8,4 Tage. Bei 47 % der Patienten wurde lediglich das Abdomen verletzt. Männer waren deutlich häufiger betroffen wie Frauen. Das durchschnittliche Alter betrug für diese Patienten 30,9 Jahre. Drei Patienten (4,5%) wurden einer konservativen Verlaufsbeobachtung („abdominal observation“) zugeführt. Alle übrigen Patienten (95%) wurden einer operativen Exploration (Laparoskopie / Laparotomie) unterzogen. Die Indikation zur diagnostischen Peritoneallavage wurde nur im Zeitraum 1986 - 1992 gestellt und zunehmend von der Abdomen-Sonographie abgelöst. Es zeigte sich im Beobachtungszeitraum 1992 -1996 ein Rückgang der obligatorischen Laparotomien und zunehmend das Vorgehen der erweiterten Diagnostik mittels Probelaparoskopie. Die Rate positiver Probelaparoskopien lag bei 37,5 %. Die Rate negativer Laparotomien betrug 24%. Bei 6% waren Relaparotomien notwendig. Der durchschnittliche Verletzungsschweregrad I.S.S für Patienten mit Abdominaltrauma betrug 9,2. Die Patienten konnten nach einer im Vergleich zum Thoraxtrauma durchschnittlich längeren Hospitalisationszeit von 11,5 Tage die Klinik wieder verlassen. Es wurden 7% der Patienten mit einem penetrierenden thorakoabdominellen Trauma erfasst. Das Durchschnittsalter betrug 34,4, der durchschnittliche I.S.S. war 22,9. Bei 5 Patienten (50%) war das Zwerchfell mitbetroffen. Alle Patienten wurden zügig laparotomiert und zeigten bei der operativen Exploration eine intrabdominelle Organverletzung. 90% erhielten eine Thoraxdrainage. Die Rate kombinierter Thorakotomie und Laparotomie betrug 20%. Es wurde zuerst die Laparotomie durchgeführt. Postoperativ kam einmal zu einem Spannungspneumothorax. Die Letalitätsrate betrug beim penetrierenden thorakoabdominellen Trauma 10%. Bei insgesamt 34% der Patienten traten postoperativ z.T. mehrere Komplikationen auf. Bei 7 konservativ behandelten Patienten verlief der stationäre Aufenthalt unkompliziert. Die postoperative Morbidität betrug insgesamt 36,8 %. Es handelte sich in 66,7% um definitive lokalisierbare Infektionen wie postoperative Wundinfektionen oder Pneumonien. Das entspricht bei 140 Patienten mit penetrierendem Trauma einer Infektionsrate von 11,4%. Die Inzidenz posttraumatischer Infektionen beim isolierten Thoraxtrauma betrug 17%, beim isolierten Abdominaltrauma 18%. Das thorakoabdominelle Trauma zeigte keine höhere Infektionsrate gegenüber dem isolierten Thorax- oder Abdominaltrauma. Im Gesamtbeobachtungszeitraum wurden etwa drei Viertel der Patienten antibiotisch behandelt. Es handelte sich in 81% der Fälle um Monotherapien und in 19% um Kombinationstherapien. Knapp 50% aller Verordnungen entfielen auf 2 Antibiotikaregimes. Berücksichtigt man die in den Kombinationstherapien verordneten Substanzen einzeln, so ergaben die vier meistverordnete Antibiotikapräparate zusammen 68,9%. Die meisten Antibiotika wurden in der Altersgruppe zwischen 21 und 30 Jahren gegeben. Die durchschnittliche Dauer der Antibiotikaverordnungen betrug 5,1 Tage. 80% der Antibiotikaverordnungen wurden intra- und direkt postoperativ, 86% wurden initial und fortlaufend intravenös, verabreicht. Es wurden 85% als Prophylaxe und 15% als Therapie eingesetzt. Die Indikation zur perioperative Antibiotika-Prophylaxe wurde beim Thoraxtrauma in 43 Fällen (56%), beim Abdominaltrauma in 49 Fällen (68%) und beim thorakoabdominellen Trauma in 8 Fällen (70%) gestellt. 88% der verordneten Antibiotika-Prophylaxen waren erfolgreich. Bei insgesamt 83% der Patienten wurde die perioperative Antibiotika-Prophylaxe aufgrund des erhöhten Risikos einer bakteriellen Kontamination des OP-Gebietes länger als 1 Tag durchgeführt. 42% dieser Patienten erhielten die perioperative Antibiotika-Prophylaxe 1-3 Tage weiter. In 57% der Fälle wurde die Antibiotika-Prophylaxe länger als 3 Tage weitergeführt. Die durchschnittliche Dauer der Antibiotika-Prophylaxen betrug 4,6 Tage. In 7% der Fälle mit prophylaktischen Antibiotikagaben traten Infektionen auf. Sie wurden als „Versager“ der Antibiotika-Prophylaxe bezeichnet. Insgesamt wurden 12% der Patienten nach noch nicht abgeschlossener Behandlung vorzeitig verlegt oder auf eigenen Wunsch entlassen. Die durchschnittliche Hospitalisationszeit betrug insgesamt 10,9 Tage. 75% der Patienten hatten einen I.S.S < 15. Der durchschnittliche Gesamtverletzungsschweregrad I.S.S betrug 11,75. Zwei Patienten verstarben an den Folgen ihrer Verletzungen. Die Todesursachen war der nicht beherrschbare Verlust von intravasalem Volumen. Die Patienten verstarben noch am Aufnahmetag im Schockraum an Herzkreislaufversagen im Volumenmangelschock. Dies ergibt bei diesem Patientenkollektiv eine Letalitätsrate von 1,4%. Der Verletzungsschweregrad I.S.S betrug 38 und 27.
Die wissenschaftliche Recherche im Internet gestaltet sich als sehr schwierig, will man relevante Informationen schnell finden. Das Problem ist nicht der Mangel an Informationen sondern vielmehr das Übermaß davon. Außer der Quantität ist es für ein Mitglied einer Hochschule wichtig auf, von der Universität lizenzierte Webseiten zugreifen zu können. Aus einem Suchwerkzeug, wie zum Beispiel Google, kann ein Informationsanbieter nicht erkennen ob der dahinter stehende Benutzer berechtigt ist einen Artikel anzufordern. Ein anderer Aspekt worauf ein Wissenschaftler bei seiner Suche Wert legt, ist die Qualität eines Artikels. Am besten eignen sich hier wissenschaftliche Artikel aus renommierten und angesehenen Zeitschriften. Aus diesem Hintergrund heraus haben sich Informationsanbieter Gedanken gemacht wie man qualitativ hochwertige Artikel schnell in einer Recherche einbinden kann. Die Module, die Entwickelt wurden bilden die Basis für die Software die diese Entwicklungen zusammenfügt und miteinander harmonieren lässt. Für die Identifikation von elektronischen Dokumenten wurde unter anderem der DOI (Digital Object Identifier) entwickelt. Außerdem wichtig für unsere endgültige Software ist der OpenURL Standard. Damit werden die meisten Probleme die bei der mit einer herkömmlichen URL bestehen gelöst. Mit diesem Standard wird anhand von Metadaten eine eindeutige Identifikation eines Dokumentes vorgenommen die zu einem Dokument verlinkt, auch wenn sich seine eigentliche URL geändert hat. Die Diplomarbeit zeigt uns einen Überblick über diese Module. Dieser Lösungsweg führt uns zu einer Technologie die angewandt wird um unser Ausgangsproblem zu lösen. In dieser Software sind, anhand eindeutiger Identifikation, wissenschaftliche Dokumente und Artikel permanent abrufbar ohne der Gefahr einen Artikel durch Änderung seiner URL zu verlieren.
To be published in J. Phys. G - Proceedings of SQM 2004 : We review the results from the various hydrodynamical and transport models on the collective flow observables from AGS to RHIC energies. A critical discussion of the present status of the CERN experiments on hadron collective flow is given. We emphasize the importance of the flow excitation function from 1 to 50 A.GeV: here the hydrodynamic model has predicted the collapse of the v2-flow ~ 10 A.GeV; at 40 A.GeV it has been recently observed by the NA49 collaboration. Since hadronic rescattering models predict much larger flow than observed at this energy we interpret this observation as evidence for a first order phase transition at high baryon density r b. Moreover, the connection of the elliptic flow v2 to jet suppression is examined. It is proven experimentally that the collective flow is not faked by minijet fragmentation. Additionally, detailed transport studies show that the away-side jet suppression can only partially (< 50%) be due to hadronic rescattering. Furthermore, the change in sign of v1, v2 closer to beam rapidity is related to the occurence of a high density first order phase transition in the RHIC data at 62.5, 130 and 200 A.GeV.
We investigate hadron production and transverse hadron spectra in nucleus-nucleus collisions from 2 A·GeV to 21.3 A·TeV within two independent transport approaches (UrQMD and HSD) based on quark, diquark, string and hadronic degrees of freedom. The enhancement of pion production in central Au+Au (Pb+Pb) collisions relative to scaled pp collisions (the ’kink’) is described well by both approaches without involving a phase transition. However, the maximum in the K+ p+ ratio at 20 to 30 A·GeV (the ’horn’) is missed by ~ 40%. Also, at energies above ~5 A·GeV, the measured K± mT-spectra have a larger inverse slope than expected from the models. Thus the pressure generated by hadronic interactions in the transport models at high energies is too low. This finding suggests that the additional pressure - as expected from lattice QCD at finite quark chemical potential and temperature - might be generated by strong interactions in the early pre-hadronic/partonic phase of central heavy-ion collisions. Finally, we discuss the emergence of density perturbations in a first-order phase transition and why they might affect relative hadron multiplicities, collective flow, and hadron mean-free paths at decoupling. A minimum in the collective flow v2 excitation function was discovered experimentally at 40 A·GeV - such a behavior has been predicted long ago as signature for a first order phase transition.
We investigate hadron production as well as transverse hadron spectra from proton-proton, proton-nucleus and nucleus-nucleus collisions from 2 A·GeV to 21.3 A·TeV within two independent transport approaches (HSD and UrQMD) that are based on quark, diquark, string and hadronic degrees of freedom. The comparison to experimental data on transverse mass spectra from pp, pA and C+C (or Si+Si) reactions shows the reliability of the transport models for light systems. For central Au+Au (Pb+Pb) collisions at bombarding energies above ~5 A·GeV, furthermore, the measured K± transverse mass spectra have a larger inverse slope parameter than expected from the default calculations. We investigate various scenarios to explore their potential effects on the K± spectra. In particular the initial state Cronin effect is found to play a substantial role at top SPS and RHIC energies. However, the maximum in the K+/..+ ratio at 20 to 30 A·GeV is missed by 40% and the approximately constant slope of the K± spectra at SPS energies is not reproduced either. Our systematic analysis suggests that the additional pressure - as expected from lattice QCD calculations at finite quark chemical potential µq and temperature T- should be generated by strong interactions in the early pre-hadronic/partonic phase of central Au+Au (Pb+Pb) collisions.
We investigate the effects of strong color fields and of the associated enhanced intrinsic transverse momenta on the phi-meson production in ultrarelativistic heavy ion collisions at RHIC. The observed consequences include a change of the spectral slopes, varying particle ratios, and also modified mean transverse momenta. In particular, the composition of the production processes of phi-mesons, that is, direct production vs. coalescence-like production, depends strongly on the strength of the color fields and intrinsic transverse momenta and thus represents a sensitive probe for their measurement.
Im Rahmen der vorliegenden wissenschaftlichen Abhandlung wurden die Ergebnisse der Angioplastie von Beckenarterienstenosen oder –okklusionen analysiert. Hierbei wurde insbesondere die neue Einteilung von Gefäßläsionen zur Klassifikation nach dem TransAtlantic Inter-Society Consensus (TASC) Dokument herangezogen als auch der Stellenwert der Excimer-Laser assistierten Angioplastie bei diesen Läsionen evaluiert. Die Bedeutung einer kritischen Betrachtung der interventionellen Möglichkeiten in der Therapie der peripheren arteriellen Verschlusskrankheit (pAVK) liegt zum einen in der weiten Verbreitung dieser Erkrankung als auch in der zunehmenden Prävalenz. Als eindeutige Vorteile der interventionellen Methoden im Vergleich zu operativen Verfahren können die Durchführung in Lokalanästhesie, die geringere Mortalität und Morbidität und der kürzere Krankenhausaufenthalt gelten. Die Rekanalisation von Arterienverschlüssen bereitete jedoch lange Zeit Schwierigkeiten und zeigte die therapeutischen Grenzen der konventionellen Ballonangioplastie auf. Dies führte zur Entwicklung von verschiedenen abtragenden („Debulking“) Verfahren wie z. B. den Excimer-Laser. Mit ihm konnten auch chronische, kalzifizierte Gefäßokklusionen erfolgreich therapiert werden. In dem Zeitraum von Januar 1999 bis Dezember 2001 wurden 91 Patienten mit Gefäßläsionen im Bereich des Beckens therapiert. Dabei handelte es sich um 133 Stenosen, 20 Okklusionen und eine Dissektion. 142 Stents wurden im Rahmen der Interventionen implantiert. Präinterventionell erfolgte die Klassifizierung der Gefäßläsionen nach dem TransAtlantic Inter-Society Consensus (TASC), die Erhebung einer Medikamenten- und Risikofaktoren-Anamnese sowie die Ermittlung der Gehstrecke und der klinischen Stadieneinteilung nach Fontaine. Die postinterventionellen Kontrolluntersuchungen erfolgten in einem Zeitraum von einem Tag nach dem Eingriff sowie nach 1, 3, 6, 12 Monaten und dann jährlich. Im Zuge der Nachuntersuchung wurden neben der aktuellen Anamnese auch eine Überprüfung der Risikofaktoren und der aktuellen Medikamentenanamnese durchgeführt. Zusätzlich beinhaltete die Kontrolluntersuchung die farbkodierte Duplex-Untersuchung der unteren Extremitäten als auch die Bestimmung des Tibio-brachialen Quotienten als Index für den Grad der Durchblutungsstörung. Alle Kontrolluntersuchungen wurden durch die klinischen Partner des Gefäßzentrums (Abt. für Angiologie, Abt. für vaskuläre und endovaskuläre Gefäßchirurgie) der Universitätsklinik Frankfurt durchgeführt. Bei 36, der insgesamt 154 durchgeführten Interventionen, kam der Excimer-Laser zum Einsatz. 55% der Okklusionen (11 von 20) wurden mittels Excimer-Laser therapiert. Trotz des hohen Anteils an Gefäßverschlüssen waren die sekundären Offenheitsraten nach 24 Monaten nahezu identisch mit denen des gesamten Patientenkollektivs (97,14% zu 97,37%). Der technische Erfolg betrug 98,1%, die gesamte Komplikationsrate belief sich auf 3,9%. Die von uns erzielten Ergebnisse liegen im Wertebereich der bislang publizierten Arbeiten und sprechen für den Einsatz der Angioplastie bei Iliakalarterienläsionen. Dies gilt sowohl für Stenosen, als auch für Okklusionen. Lediglich Läsionen im Bereich der A. iliaca externa bei weiblichen Patienten lieferten deutlich schlechtere Ergebnisse (primäre Offenheitsraten nach 24 Monaten: 81,82% Frauen; 90,79% gesamt). Des Weiteren war ein multisegmentaler Gefäßbefall mit einer erhöhten Reinterventionsrate vergesellschaftet. 70% der Läsionen, welche einer Reintervention bedurften, waren multisegmental. Insbesondere nicht passierbare Läsionen stellen das Einsatzgebiet für den Excimer-Laser dar. Die etwas schlechteren primären Offenheitsraten (85,71% zu 90,79%) der Laser-PTA Gruppe im Vergleich zu unserer Gesamt-Gruppe beruhen auf dem größeren Anteil an langstreckigen Gefäßverschlüssen in dieser Gruppe (30,6% zu 7,7%). Die sekundären Offenheitsraten lassen hingegen keine signifikanten Unterschiede mehr erkennen (97,14% zu 97,37%). Die Ergebnisse dieser Arbeit zeigen, dass die Rekanalisation mittels Angioplastie bei Beckenarterienläsionen sowohl im Falle der AIC als auch der AIE, mit hohem technischen und klinischen Erfolg durchgeführt werden können. Insbesondere die Excimer-Laser assistierte Angioplastie erweitert das Anwendungsspektrum auf langstreckige, chronische Beckenarterien-verschlüsse, mit ermutigenden Resultaten. Die perkutane Rekanalisation von Beckenarterienläsionen stellt somit eine echte Alternative zur chirurgischen Therapie dar und sollte primär angestrebt werden.
Die Auswertung der Stratigraphien und Keramikinventare des Final Stone Age aus dem südwestlichen Tschadbecken führte zu einer zeitlichen Gliederung der Inventare. Durch die vorgestellten Analysen zu Merkmalen der Keramikform, -technik und -verzierung wurden zwei Stilgruppen - der ältere und der jüngere Gajigannastil - definiert und beschrieben. Für die jüngere Gajiganna Stilphase war eine weitere Unterteilung in drei Stufen möglich, die die keramische Entwicklung zwischen 1.500 BC bis ca. 800 BC gliedern. Das gelang bisher noch nicht mit Keramik der älteren Stilphase. Die Analyse der Grabungsprofile brachte Hinweise zu Speichergruben, ermöglicht Spekulationen über Lehmbauten in Fundplätzen der jüngeren Gajigannaphase und läßt Rückschlüsse auf eine stärkere Geländeprofilierung als die heute anzutreffende zu. Die Einordnung der begangenen Plätze in die Stilgruppen zeigte keine wesentlichen Unterschiede bei der Wahl der Siedlungsplätze. Die Randlage zu den vermutlich nicht nur saisonal gefluteten Tonebenen ist für beide bezeichnend. Die Siedlungsplätze boten in dieser Lage einige Vorteile. Die Sandgebiete dienten als Weiden für Rinder. Fischfang konnte an den Ufern der überschwemmten Gebiete betrieben werden, die ebenfalls ein reiches Reservoir an Wildpflanzen boten, die das Nahrungsangebot ergänzten. Ein Vergleich der Inventare mit anderen westafrikanischen Fundplätzen zeigt, daß die ältere Keramikphase der Gajiganna-Gruppe in einen überregionalen Verzierungstil eingebettet ist, der durch Winkelbänder und dreieckige Einstiche charakterisiert wird und sich über ein weites Gebiet zwischen Sudan im Osten und Niger im Westen spannt. Die hier vorgestellte Keramik der Phase I ist der südlichste Vertreter dieses Verzierungshorizontes. Die jüngere Stilphase konnte bisher nur kleinräumig nachgewiesen werden. Ihr Verbreitungsgebiet scheint auf das Tschadbecken beschränkt zu sein. Das mag entweder im gegenwärtigen Forschungsstand oder in einer um die Mitte des zweiten Jahrtausends beginnenden Regionalisierung der Keramikstile begründet sein. Die einzelnen Ergebnisse flossen in eine modellhafte Abhandlung zur Besiedlungsgeschichte des südwestlichen Tschadbeckens ein. Diese wäre unvollständig gewesen ohne die Ergebnisse der Archäobotanik und der Archäozoologie. Der Nachweis von domestizierter Hirse in den Fundplätzen der jüngeren Gajiganna-Gruppe ab der Stufe 2b ist ein wichtiges Ergebnis, das dazu beiträgt, die Veränderungen zu erfassen, die sich hinter dem Stilwechsel in den Keramikinventaren verbergen. Es scheint so, als hätte sich eine Verschiebung in der Gewichtung von Viehzucht zu Ackerbau vollzogen. Eine Veränderung des Siedlungsverhaltens mit engerer Bindung an die genutzte Fläche könnte eher die Vorbedingung als die Folge gewesen sein. Größere Platzkontinuität ist bereits in Phase 2a zu vermuten, sichtbar gemacht durch die hier erstmalig auftretenden komplexen Stratigraphien und wahrscheinlich begründet durch die verstärkte Nutzung von Wildgetreide. In Phase 2b wird domestiziertes Pennisetum bei einer weitgehend seßhaften Bevölkerung eingeführt. Kein radikaler Wechsel ist in den Strategien der Subsistenzwirtschaft zu beobachten. Stattdessen führt ein allmählicher Prozeß über einige hundert Jahre vom Viehzüchter zum Ackerbauern. Die Beziehungen zwischen den Fundstellen nördlich der Mandaraberge und denen im Gebiet um Zilum einerseits und den hier vorgestellten Fundstellen andererseits deuten auf eine regional in randliche Siedlungsgebiete verschobene Weiterentwicklung bis in die Eisenzeit, während die ehemaligen Kerngebiete wahrscheinlich von anderen Siedlern aus den Firki-Ebenen heraus besiedelt wurden. Offen bleiben müssen Fragen zu Hausbau, Siedlungsstruktur und Größe der Nutzflächen, die jeweils zu einer Siedlung gehörten. Auch fehlen noch hinreichende Daten, um die Beziehungen der Siedlungen untereinander zu erfassen und eventuell vorhandene Netzwerkstrukturen auszuarbeiten. Hier ergeben sich weitere Forschungsfelder, die zu neuen Erkenntnissen zur Stellung des Gajigannakomplexes im Kontext der westafrikanischen Prähistorie führen werden.
In this paper, I investigate more closely the contribution of modal operators to the semantics of comparatives and I show that there is no need for a maximality or minimality operator. Following Kratzer s (1981, 1991) analysis of modal elements, I assume that the meaning of a modal sentence is dependent on a conversational background and an ordering source. For comparative environments, I demonstrate that the ordering source reduces a set of possible degrees to a single degree that is most (or least) wanted or expected, i.e., maximality and minimality readings of comparative constructions are an effect of the pragmatic meaning of the modal.
Der Transport von antigenen Peptiden in das Lumen des endoplasmatischen Retikulums ist ein zentraler Vorgang bei der Antigenprozessierung und ihrer MHC-Klasse-I-vermittelten Präsentation auf der Zelloberfläche. Intrazelluläre Translokation über die ER-Membran erfolgt mit Hilfe von TAP, eines ATP-abhängigen ABC-Transporters. Einer ATP-unabhängigen Substratbindung folgt der eigentliche Transportschritt, dessen Energetisierung einer ATP-Spaltung bedarf. In der vorliegenden Dissertation wurde die ATPase-Aktivität des TAP-Komplexes aufgeklärt und detailliert charakterisiert. Es wurde eine schnelle und schonende Isolierungs- und Rekonstitutionsmethode entwickelt, die es erlaubt, den partiell aufgereinigten TAP-Komplex in Liposomen einzubauen und Funktionsstudien in vitro durchzuführen. Zum ersten Mal war es damit möglich, die Peptid-stimulierte TAP-spezifische ATP-Hydrolyse direkt zu beobachten und deren kinetische Parameter zu bestimmen. Eine direkte Korrelation zwischen Bindungsaffinität des Peptides zu TAP (Bindungskonstante KD) und der halbmaximalen Stimulation der ATPase-Aktivität von TAP (Km,pep) wurde festgestellt. Die Versuche mit den verzweigten Peptiden zeigten, dass Peptide, die nicht transportiert werden können, keine Stimulation der ATPase-Aktivität hervorrufen. Somit wurde die allosterische Interaktion zwischen Peptidbindung, ATP-Hydrolyse und Peptidtransport nachgewiesen. Nach der Entfernung des peptidexportierenden Sec61-Komplexes aus den Proteoliposomen konnte die vorläufige Stöchiometrie des Transportschrittes bestimmt werden. Eine weitere Anwendung fand die Rekonstitutionsmethode bei der Aufklärung des molekularen Wirkungsmechanismus des TAP-Inhibitors US6, indem der TAP-Komplex zusammen mit der aktiven ER-luminalen Domäne von US6 in die Proteoliposomen rekonstituiert wurde. Die Bindung von US6(delta147-183) an die ER-luminalen Bereiche von TAP blockiert die ATP-Bindung an die zytoplasmatischen NBD des Transporters. Die Peptid-induzierte ATP-Hydrolyse wird durch die Inhibition der ATP-Bindung unterbunden, wohingegen die Peptid- und ADP-Bindung von TAP nicht beeinflusst sind.
Abschließend sollen hier die wichtigsten, neuen Ergebnisse herausgestellt und ein Ausblick auf mögliche zukünftige Studien gegeben werden. In dieser Arbeit wurden vorwiegend Schwerionenkollisionen bei Einschußenergien zwischen ungefähr 40 MeV/Nukleon und 400 MeV/Nukleon mit dem Quantenmolekulardynamik-Modell untersucht. Ein Schwerpunkt war hierbei die Beschreibung der Umkehr des kollektiven, transversalen Seitwärtsflusses in der Reaktionsebene. Der negative Seitwärtsfluß, der bei niedrigen Energien der Größenordnung kleiner als 100 MeV/Nukleon durch die attraktiven Wechselwirkungen verursacht wird, verschwindet bei Steigerung der Einschußenergie bei der Balance-Energie E-bal. einsetzt. Oberhalb dieser dominieren die repulsiven Wechselwirkungen, so daß positiver transversaler Fluß einsetzt. Sowohl die negativen Flußwinkel als auch der Übergang hin zu positiven Flußwinkeln konnte fur eine große Anzahl verschiedener Energien und Stoßparameter mit unterschiedlichen Zustandsgleichungen für die Systeme 40-20-Ca + 40-20-Ca und 197-79 Au + 197-79 Au mit dem Quantenmolekulardynamik-Modell beschrieben werden. Ziel muß es bleiben, die verschiedenen, grundlegenden physikalischenWechselwirkungen eindeutig und unabhängig voneinander zu bestimmen. Ein erfolgversprechender Weg sind die hier vorgestellten Methoden und die Hinweise zur ad quaten Interpretation experimenteller Ergebnisse. Die Abhängigkeit der Balance-Energien von der Masse des betrachteten Systems ist sehr sensitiv auf den Nukleon-Nukleon Wirkungsquerschnitt im Medium. Hier wurde systematisch gezeigt, daß die Balance-Energien stark vom Stoßparameter abhängen. Die Zunahme der Balance-Energie mit dem Stoßparameter ist ungefähr linear. Für das System Ca+Ca kann sich die Balance-Energie beim Übergang von zentraleren zu mittleren Stoßparametern mehr als verdoppeln. Daher ist für die Interpretation der gemessenen Balance-Energien in bezug auf eine Modifikation des nukleo- nischen Wirkungsquerschnitts im Medium oder der Zustandsgleichung eine genaue Kenntnis des Stoßparameters von größter Wichtigkeit. Vorläufige experimentelle Analysen scheinen die vorhergesagte Stoßparameterabhängigkeit sehr gut zu bestätigen [Wes 95]. Weiterhin hat sich herauskristallisiert, daß bei der Berücksichtigung impulsabhängiger Wechselwirkungen die Balance-Energien bei größeren Stoßparametern signifikant kleiner sind als für den Fall der Nichtberücksichtung. Daher konnten experimentelle Bestimmungen der Balance- Energien bei größeren Stoßparametern signifikante Hinweise auf die tatsächliche Bedeutung der impulsabhängigen Wechselwirkungen in diesem Energiebereich geben. Es wurde gezeigt, daß für schwere Systeme wie Au+Au die langreichweitige internukleare Coulomb-Wechselwirkung vor dem Kontakt der Kerne im Energiebereich der Balance-Energien nicht vernachlässigt werden darf. Die hervorgerufene Repulsion bewirkt eine Drehung des Systems. Während in diesem gedrehten System dynamischer negativer Fluß beobachtbar ist, ist er es nicht im Laborsystem. Die im gedrehten Kontaktbezugssystem bestimmten Balance- Energien fur Au+Au sind erwartungsgemäß kleiner als für Ca+Ca und nehmen mit wachsendem Stoßparameter zu. Ein neuartiger Zwei-Komponenten-Fluß konnte in semiperipheren Kollisionen von Ca+Ca be- schrieben und analysiert werden. Dabei wird in einem Ereignis in verschiedenen Rapiditätsbereichen gleichzeitig positiver und negativer transversaler Fluß möglich. Die wenig komprimierte Spektatorenmaterie, die vermehrt aus schwereren Fragmenten besteht, zeigt negativen Fluß bei großen Rapiditäten, wohingegen dieKompressionszone in Form von einzelnen Nukleonen positiven transversalen Fluß zeigt. Aufgrund der großen Sensitivität gegenüber den Systemparametern und der Zustandsgleichung lohnt es sich, diesen Effekt experimentell zu untersuchen. Beim Studium azimuthaler Verteilungen wurde deutlich, daß auch in den Balance-Punkten noch kollektiver Fluß in Form von azimuthaler Asymmetrie vorliegt. Im Gegensatz zur bekannten hochenergetischen Bevorzugung der Emissionswinkel senkrecht zur Reaktionsebene für Teilchen aus der Wechselwirkungszone wurde hier die bei kleineren Energien preferentielle Emission in die Reaktionsebene aufgezeigt. Diese nimmt mit der Teilchenmasse und dem Stoßparameter zu. Das systematische Studium der Anregungsfunktion dieser azimuthalen Asymmetrie könnte durch die Übergangsenergien, die durch den Wechsel von der preferentiellen Emission in die Reaktionsebene zu der Bevorzugung der Winkel senkrecht zur Reaktionsebene definiert sind, wertvolle, ergänzende Information zu den Balance-Energien liefern.
Im Rahmen dieser Dissertation wurde die Photophysik und die elektronische Struktur einer Klasse neuartiger Donator-Akzeptor-Ladungstransfer-Komplexe untersucht. Im Wesentlichen bestehen diese Verbindungen aus einem Ferrocen-Donator (Fc) und organischen Akzeptoren, die über B-N-Bindungen verbrückt sind, welche sich bei dieser Art von makromolekularen Systemen spontan bilden. Zentraler Gegenstand dieser Arbeit war die spektroskopische Untersuchung des Metall-zu-Ligand-Ladungstransfers (engl. Abkürzung: MLCT) im elektronischen Anregungszustand dieser kationischen Komplexverbindungen, die im Weiteren als „Fc-B-bpy“-Verbindungen bezeichnet werden. Die vorliegende Arbeit analysiert eine Vielzahl miteinander verwandter Fc-B-bpy-Derivate. Die Arbeit ist gegliedert in 1.) die Analyse der Absorptionsspektren vom UV- bis zum nahen Infrarot-Spektralbereich (250-1000 nm) von Lösungen, dotierten Polymer-Dünnfilmen und Einkristallen, 2.) die zeitaufgelöste optische Spektroskopie des angeregten Zustands auf der Pikosekunden-Zeitskala, 3.) die Analyse elektrochemischer Messungen an Lösungen, und 4.) die Auswertung quantenchemischer Berechnungen. Für die zeitaufgelösten Messungen wurde ein komplexes optisches Spektroskopie-System mit breitbandigen Femtosekunden-Pulsen sowie den entsprechenden zeitaufgelösten Detektionsmethoden (spektral gefilterte Weißlicht-Detektion) aufgebaut. Die Ergebnisse dieser Arbeit beweisen die Existenz eines MLCT-Übergangs mit fast vollständigem Übergang eines Fc-Donator-Elektrons zum B-bpy-Akzeptor bei optischer Anregung. Die vergleichenden Untersuchungen der spektroskopischen Eigenschaften verschiedener Derivate liefern wichtige Information für die Entwicklung neuartiger Derivate, einschließlich verwandter Polymere, mit verbesserten spektroskopischen Eigenschaften. Es wurden transiente Absorptionsmessungen bestimmter Fc-B-bpy-Derivate in Lösung nach gepulster Anregung der MLCT-Bande (bei 500 nm) über einen Zeitbereich von 0,1-1000 ps und einen Wellenlängenbereich von 460-760 nm vorgenommen. Aus den Messergebnissen geht hervor, dass die Relaxation aus dem angeregten MLCT-Zustand in den Grundzustand auf verschiedenen Zeitskalen geschehen kann, welche im Bereich zwischen ~18 und 900 ps liegen. Ein Vergleich verschiedener Derivate mit unterschiedlicher Flexibilität in der Konformation zeigt, dass die Starrheit der Bindungen zwischen Donatoren und Akzeptoren ein wesentlicher Faktor für die Lebensdauer des angeregten Zustands ist. Wenn die Akzeptorgruppen relativ frei rotieren können, ist es der Verbindung möglich, eine Geometrie einzunehmen, von der aus ein effizienter, strahlungsfreier Übergang in den Grundzustand erfolgen kann. Dieser Befund zeigt einen Weg auf, wie neuartige, verwandte Verbindungen mit größerer Lebensdauer das angeregten Zustands synthetisiert werden können, indem darauf geachtet wird, daß eine starre molekulare Architektur zwischen Donator und Akzeptor verwirklicht wird.
Invited talk at the International Workshop XXX on Gross Properties of Nuclei and Nuclear Excitations - Ultrarelativistic Heavy-Ion Collisions, Jan. 13-19, 2002, Hirschegg, Austria. Report-no: LBNL-49674. We discuss predictions for the pion and kaon interferometry measurements in relativistic heavy ion collisions at SPS and RHIC energies. In particular, we confront relativistic transport model calculations that include explicitly a first-order phase transition from a thermalized quark-gluon plasma to a hadron gas with recent data from the RHIC experiments. We critically examine the "HBT-puzzle" both from the theoretical as well as from the experimental point of view. Alternative scenarios are briefly explained.
Invited talk at the XXXIII International Symposium on Multiparticle Dynamics, Krakow, Poland, 5-11 Sept, 2003. 5 pages, 1 figure Journal-ref: Acta Phys.Polon. B35 (2004) 23-28. We review the recent developments on microscopic transport calculations for two-particle correlations at low relative momenta in ultrarelativistic heavy ion collisions at RHIC.
Invited talk at the 7th International Conference on Strangeness in Quark Matter, SQM 2003, Atlantic Beach, North Carolina, USA, 12-17 Mar, 2003. 11 pages, 12 figures. Journal-ref: J.Phys. G30 (2004) S139-S150. We review recent developments in the field of microscopic transport model calculations for ultrarelativistic heavy ion collisions. In particular, we focus on the strangeness production, for example, the phi-meson and its role as a messenger of the early phase of the system evolution. Moreover, we discuss the important e ects of the (soft) field properties on the multiparticle system. We outline some current problems of the models as well as possible solutions to them
Die frühe Entwicklung und Differenzierung der sympathischen Ganglien wird durch ein Netzwerk von proneuralen (Mash1/Cash1) und autonomen (Phox2a/b, dHand) Transkriptionsfaktoren kontrolliert. Diese Transkriptionsfaktoren induzieren direkt oder indirekt die Expression neuronaler (SCG10) und subtypspezifischer noradrenerger (TH, DBH) oder cholinerger (ChAT, VAChT) Gene. Die Analyse der frühen Genexpression im Ciliarganglion zeigte ein bemerkenswert ähnliches zeitliches Expressionsschema. Zwei bedeutende Unterschiede sind einerseits die nur transiente Expression noradrenerger Gene und andererseits die Abwesenheit des bHLH-Transkriptionsfaktors dHand, der selektiv in den sympathischen Ganglien exprimiert ist. Das Netzwerk der Transkriptionsfaktoren in den sympathischen Ganglien ist abhängig von einem BMP-Signal aus der dorsalen Aorta. BMPs sind notwendig und ausreichend für die Expression der genannten Transkriptionsfaktoren und damit für die Bildung der sympathischen Ganglien. Diese Arbeit zeigt, daß BMPs auch für die Entwicklung des Ciliarganglions notwendig und ausreichend sind. Fehlen BMPs, differenzieren die Vorläuferzellen nicht, wird BMP4 überexprimiert, differenzieren sie, anders als sympathische Vorläuferzellen im Brachialnerv, zu Zellen mit parasympathischem Phänotyp. Die vorliegenden Ergebnisse weisen auf eine Präspezifizierung von Ciliarvorläuferzellen und sympathischen Vorläuferzellen hin. Der bHLH-Transkriptionsfaktor dHand ist differentiell in sympathischen Vorläuferzellen exprimiert. Seine Expression ist notwendig für die noradrenerge Differenzierung, und die Überexpression im Ciliarganglion reicht aus, um in den Ciliarneuronen die Expression von TH/DBH zu erhalten. Verschiedene Arbeiten schlagen als möglichen Wirkmechanismus eine synergistische Interaktion von dHand und Phox2-Transkriptionsfaktoren vor. Ektopische BMP4-Expression induziert in einem Teil der generierten Neuronen die Expression von dHand. Interessanterweise reicht diese, durch BMP4 induzierte, dHand-Expression nicht aus, den relativen Anteil noradrenerger Neuronen innerhalb der ektopischen und der Ciliarneuronen zu erhöhen. Diese scheinbare Diskrepanz kann erklärt werden, wenn man annimmt, daß ein bestimmter Schwellenwert in der dHand-Funktion erreicht werden muß. Dieser Schwellenwert könnte durch unterschiedliche dHand-Expression, induziert durch BMPs, durch posttranskriptionelle Kontrolle der dHand-Funktion, oder durch unterschiedliche Expression von Cofaktoren in unterschiedlich präspezifizierten Vorläuferzellen reguliert werden. In Zellen, in denen die Konzentration an aktivem dHand einen gewissen Schwellenwert übersteigt, würde dann gemeinsam mit Phox2a/b die noradrenerge Genexpression induziert oder erhalten werden.
Die vorliegende Arbeit beschäftigt sich mit der Frage, inwieweit psychosoziale Belastungsfaktoren in Kindheit und Erwachsenenalter Einfluss auf Krankheitsentstehung und Verlauf der interstitiellen Cystitis (IC) haben. Als Testinstrumente fanden die MSBA (Mainzer Strukturierte Biographische Anamnese), das BSI (Brief Symptom Inventory) sowie ein IC-spezifischer Symptom- und Problem-Fragebogen Anwendung. Es erfolgte eine deskriptive Auswertung der Daten. An der Studie nahmen 30 Patienten teil, deren Symptomatik und Befunde die aktuellen Diagnosekriterien der IC erfüllen. Es zeigte sich ein erhöhtes Vorkommen wichtiger Kindheitsbelastungsfaktoren. Dazu zählen eine schlechte emotionale Bindung zu den Eltern bei mangelndem Geborgenheitsgefühl im Elternhaus, eine chronische Erkrankung eines Elternteils und körperliche Misshandlung. Sexueller Missbrauch spielte bei dieser Patientengruppe so gut wie keine Rolle. im Gesamtscore der Kindheitsbelastungsfaktoren liegen IC-Patienten ebenfalls weit über publizierten Durchschnittswerten für Stichproben gesunder Probanden. Zwischen Kindheitsbelastungsscore und klinischer IC-Symptomatik ergab sich keine signifikante Korrelation. Die aktuelle Sozialanamnese zeigte kein gehäuftes Vorkommen relevanter psychosozialer Belastungsfaktoren in den einzelnen Lebensbereichen. Die Lebensqualität ist durch die Krankheitssymptomatik stark eingeschränkt. Eine depressive Symptomatik gehörte in der Regel zum Krankheitsbild. Das BSI zeigte insgesamt erhöhte Werte für die subjektive Beeinträchtigung nahezu aller erfragten physischen und psychischen Symptome, insbesondere jedoch für Skalen Somatisierung, Ängstlichkeit und Phobische Angst. Zwischen Kindheitsbelastungsscore und Gesamtwert im BSI besteht ebenfalls keine signifikante Korrelation. Die Ergebnisse der Studie sprechen für eine psychosomatische Mitbeteiligung in der wahrscheinlich multifaktoriellen Genese der Interstitiellen Cystitis.
The wide-area deployment of WiFi hot spots challenges IP access providers. While new profit models are sought after by them, profitability as well as logistics for large-scale deployment of 802.11 wireless technology are still to be proven. Expenditure for hardware, locations, maintenance, connectivity, marketing, billing and customer care must be considered. Even for large carriers with infrastructure, the deployment of a large-scale WiFi infrastructure may be risky. This paper proposes a multi-level scheme for hot spot distribution and customer acquisition that reduces financial risk, cost of marketing and cost of maintenance for the large-scale deployment of WiFi hot spots.
Thema dieses Beitrags ist zum einen eine kritische Würdigung des Flächentarifvertrages (FTV) im Hinblick auf seine Regelungsdichte und zum anderen die theoretische Analyse eines Elements des Flexibilisierungspotentials des FTV, namlich der Öffnungsklausel, unter Berücksichtigung der Insider-Outsider-Problematik. Im Ergebnis kommt dieser Beitrag zu dem Schluß, daß der FTV nicht überholt, wohl aber dringend und umfassend überholungsbedürftig ist. Wichtig erscheint eine differenzierende Betrachtung, denn nicht alle diskutierten Flexibilisierungsmaßnahmen führen notwendigerweise zu Beschäftigungsgewinnen. Die Regelungsdichte des FTV kommt unter anderem zum Tragen, wenn bisher tarifgebundene Unternehmen beispielsweise auf Grund einer überzogenen Lohnpolitik den FTV verlassen wollen. Sie müssen zunächst erhebliche Nachwirkungsfristen des FTV beachten, können aber häufig selbst als nicht (mehr) tarifgebundene Unternehmen keine Lohnabschlüsse mit ihrem Betriebsrat tätigen. Die Regelungsdichte wird zudem durch die Arbeitsgerichtsbarkeit verstärkt, beispielsweise durch das in diesem Beitrag kritisierte Urteil des Bundesarbeitsgerichts, welches unter bestimmten Voraussetzungen eine Verbandsklage als zulässig erklärt. Ein gründlich reformierter FTV, der einer erforderlichen Flexibilität auf der betrieblichen Ebene Rechnung trägt, weist eine Reihe von Vorteilen auf. Denn Lohnverhandlungen ausschließlich auf der betrieblichen Ebene führen dort zu teilweise beachtlichen Transaktionskosten, zwingen die Unternehmensleitung zur Offenlegung der Bücher (gegenüber dem Betriebsrat) und verstärken unter Umständen ein Insider-Outsider-Verhalten. Der Beitrag unternimmt im weiteren eine theoretische Analyse der Beschäftigungswirkungen des FTV und eines Haustarifvertrages (HTV) als mögliche Alternative. Das vorgeschlagene Modell integriert Insider-Outsider-Verhalten und die Möglichkeit einer Tariföffnungsklausel. Das Modell zeigt, daß aus theoretischer Sicht keine eindeutige Rangordnung zwischen HTV und FTV hinsichtlich ihrer Beschäftigungswirkungen besteht. Auch führt eine Tariföffnungsklausel nicht notwendigerweise zu höherer Beschäftigung, da die Gewerkschaften fur die Situationen mit günstigen Güternachfrageschocks einen vergleichsweise hohen Lohn anstreben. Angesichts der theoretisch unklaren Ergebnisse plädiert die Arbeit fur eine Reform des FTV anstelle eines drastischen Systemwechsels hin zu HTV.
Diese Arbeit untersucht empirisch den Zusammenhang von Beschäftigung und Lohnstrukturen zwischen sowie innerhalb von Qualifikations- und Altersgruppen. Zunächst werden Substitutionselastizitäten zwischen Qualifikations- und Altersgruppen geschätzt und die Lohnveränderungen bestimmt, die notwendig gewesen wären, um im Jahre 1997 die qualifikationsspezifischen Arbeitslosenquoten zu halbieren. Die geschätzten Substitutionselastizitäten sind sehr hoch. Die notwendige Lohnreduktion liegt nominal zwischen 9% und 10,6% und fällt umso höher aus, je geringer die Qualifikation der Arbeitnehmergruppe ist. Der zweite Teil der Arbeit befasst sich mit dem Zusammenhang zwischen residualer Lohnungleichheit und Beschäftigungsdynamik. Es werden konkurrierende Implikationen aus der Theorie der Grenzproduktivitätsentlohnung und der Suchtheorie abgeleitet und empirisch untersucht. Die Ergebnisse sind für keine der beiden Theorien überzeugend. Das robuste Ergebnis einer signifikant positiven Korrelation zwischen dem Niveau der Arbeitslosenquote und der residualen Lohnungleichheit legt allerdings nahe, dass Suchfriktionen zur Erklärung der residualen Lohndispersion beitragen können. JEL - Klassifikation: J31 , J21 , E24 , J64
Despite the apparent stability of the wage bargaining institutions in West Germany, aggregate union membership has been declining dramatically since the early 90's. However, aggregate gross membership numbers do not distinguish by employment status and it is impossible to disaggregate these sufficiently. This paper uses four waves of the German Socioeconomic Panel in 1985, 1989, 1993, and 1998 to perform a panel analysis of net union membership among employees. We estimate a correlated random effects probit model suggested in Chamberlain (1984) to take proper account of individual specfic effects. Our results suggest that at the individual level the propensity to be a union member has not changed considerably over time. Thus, the aggregate decline in membership is due to composition effects. We also use the estimates to predict net union density at the industry level based on the IAB employment subsample for the time period 1985 to 1997. JEL - Klassifikation: J5
The paper analyses the financial structure of German inward FDI. From a tax perspective, intra-company loans granted by the parent should be all the more strongly preferred over equity the lower the tax rate of the parent and the higher the tax rate of the German affiliate. From our study of a panel of more than 8,000 non-financial affiliates in Germany, we find only small effects of the tax rate of the foreign parent. However, our empirical results show that subsidiaries that on average are profitable react more strongly to changes in the German corporate tax rate than this is the case for less profitable firms. This gives support to the frequent concern that high German taxes are partly responsible for the high levels of intracompany loans. Taxation, however, does not fully explain the high levels of intra-company borrowing. Roughly 60% of the cross-border intra-company loans turn out to be held by firms that are running losses. JEL - Klassifikation H25 , F23 .
Differenzierte Verdienststrukturen, wie zum Beispiel qualifikatorische Verdienstunterschiede, tragen der Heterogenität am Arbeitsmarkt und somit auch einer notwendigen Flexibilität der Löhne Rechnung. Trotz dieser bedeutenden Rolle der Lohnstruktur für den Arbeitsmarkt gibt es relativ wenig detaillierte empirische Evidenz zu deren Ausgestaltung und Dynamik für Westdeutschland. In dieser Arbeit werden auf Basis der Gehalts- und Lohnstrukturerhebungen für die Jahre 1990 und 1995 sowohl die Lohndispersion innerhalb bestimmter Erwerbsgruppen („Within-Dispersion“) als auch zwischen diesen Gruppen („Between-Dispersion“) untersucht. Im Fokus der Analysen steht dabei der Vergleich zwischen den Erwerbsgruppen der vollzeitbeschäftigten Männer, der vollzeitbeschäftigten Frauen und der teilzeitbeschäftigten Frauen nach den Qualifikationsniveaus: ohne Berufsabschluss, mit Berufsabschluss und mit Hochschulabschluss. Dichteschätzungen des Bruttotageslohns zeigen, dass vollzeiterwerbstätige Männer über die gesamte Verteilung den höchsten Verdienst aufweisen. Weiterhin deuten die Dichteschätzungen darauf hin, dass die geschlechtsspezifischen Lohndifferentiale mit zunehmendem Verdienst steigen. Der selbe Sachverhalt findet sich auch für die qualifikatorischen Verdienstunterschiede. Mit steigendem Qualifikationsniveau steigt sowohl der Lohn als auch die Dispersion. Besonders ausgeprägt ist die qualifikatorische Dispersion für Männer. Eine Analyse der Lohndifferentiale sowohl innerhalb der Erwerbsgruppen als auch zwischen Männern und Frauen weist darauf hin, dass in der Gruppe der teilzeiterwerbstätigen Frauen die größte Lohndispersion vorzufinden ist und dass diese im Zeitablauf zugenommen hat. Ferner sind die Lohndifferentiale im unteren Bereich der Verteilung kleiner als im oberen. Die weitere Disaggregation nach dem Qualifikationsniveau reduziert die Within-Dispersion, wobei die Lohnunterschiede innerhalb der Erwerbsgruppen mit steigendem Qualifikationsniveau tendenziell zunehmen. Schließlich nimmt die Within-Dispersion für vollzeitbeschäftigte Hochschulabsolventinnen im Zeitablauf zu, während sie für die Teilzeitbeschäftigten sinkt. Betrachtet man die Qualifikations- und die Verteilungsdimension, zeigt sich, dass in beiden Jahren lediglich für vollzeiterwerbstätige Frauen ohne Berufsabschluss bzw. mit Hochschulabschluss das geschlechtsspezifische Differential über die Verteilung hinweg steigt. Für alle anderen Gruppen geht es über die Verteilung hinweg zurück. Die Lohndifferentiale zwischen Männern und Frauen haben im Zeitablauf abgenommen. Das mittlere Reallohnwachstum zwischen 1990 und 1995 ist für teilzeiterwerbstätige Frauen mit 6,8% am höchsten und für vollzeiterwerbstätige Männer mit 0,7% am geringsten. Die Reduktion der geschlechtsspezifischen Unterschiede im Zeitablauf ist unter Berücksichtigung des Qualifikationsniveaus noch ausgeprägter. Dies gilt vor allem für teilzeiterwerbstätige Frauen ohne Berufsabschluss und mit Hochschulabschluss. Für teilzeiterwerbstätige Frauen und für vollzeiterwerbstätige Männer findet sich im Zeitablauf eine zunehmende Lohnspreizung, während für vollzeiterwerbstätige Frauen die Verteilung konstant bleibt. Eine Zunahme der Lohnspreizung ist dabei insbesondere bei Hochschulabsolventen festzustellen, sowohl für vollzeiterwerbstätige Männer wie Frauen. Im Unterschied dazu hat für diese Erwerbsgruppen die Lohndispersion bei den Mittelqualifizierten in den 90er Jahren abgenommen.
This paper is a draft for the chapter German banks and banking structure of the forthcoming book The German financial system . As such, the paper starts out with a description of past and present structural features of the German banking industry. Given the presented empirical evidence it then argues that great care has to be taken when generalising structural trends from one financial system to another. Whilst conventio nal commercial banking is clearly in decline in the US, it is far from clear whether the dominance of banks in the German financial system has been significantly eroded over the last decades. We interpret the immense stability in intermediation ratios and financing patterns of firms between 1970 and 2000 as strong evidence for our view that the way in which and the extent to which German banks fulfil the central functions for the financial system are still consistent with the overall logic of the German financial system. In spite of the current dire business environment for financial intermediaries we do not expect the German financial system and its banking industry as an integral part of this system to converge to the institutional arrangements typical for a market-oriented financial system. This Version: March 25, 2003
Initiated by the seminal work of Diamond/Dybvig (1983) and Diamond (1984), advances in the theory of financial intermediation have sharpened our understanding of the theoretical foundations of banks as special financial institutions. What makes them "unique" is the combination of accepting deposits and issuing loans. However, in recent years the notion of "disintermediation" has gained tremendous popularity, especially among American observers. These observers argue that deregulation, globalisation and advances in information technology have been eroding the role of banks as intermediaries and thus their alleged uniqueness. It is even assumed that ever more efficiently organised capital markets and specialised financial institutions that take advantage of these markets, such as mutual funds or finance companies, will lead to the demise of banks. Using a novel measurement concept based on intermediation and securitisation ratios, the present article provides evidence which shows that banking disintermediation is indeed a reality for the US financial system. This seems to indicate that American banks are not all that "unique"; they can be replaced to a considerable extent. Moreover, many observers seem to believe that what has happened in the US reflects a universal trend. However, empirical results reported in this paper indicate that such a trend has not manifested itself in other financial systems, and in particular, not in Germany or Japan. Evidence on the enormous structural differences between financial systems and the lack of unequivocal signs of convergence render any inferences from the American experience to other financial systems very problematic.
Diese Arbeit vergleicht die Verdienststrukturen in Westdeutschland für die Jahre 1990 und 1995 basierend auf der Gehalts- und Lohnstrukturerhebung und der IAB—Beschäftigtenstichprobe. Wir betrachten Verdienstunterschiede im Hinblick auf die berufliche Qualifikation, das Geschlecht, den Erwerbsstatus, die Branchenzugehörigkeit und das Alter. Die Analyse verwendet die Methode der Quantilsregressionen und ist rein deskriptiver Natur. Die beiden Datensätze unterscheiden sich teilweise in der Stichprobenzusammensetzung und es finden sich zum Teil Unterschiede in den geschätzten Verdienstrelationen. Qualitativ stimmen die Ergebnisse vor allem für Männer relativ gut überein. Die Verdienststrukturen erweisen sich als sehr differenziert, beispielsweise nehmen geschlechtsspezifische und qualifikatorische Verdienstunterschiede wie auch die Verdienstdispersion innerhalb einer Arbeitnehmergruppe typischerweise mit dem Alter zu. JEL - Klassifikation: C14 , J31 , C80
Abstract: It is commonplace in the debate on Germany's labor market problems to argue that high unemployment and low wage dispersion are related. This paper analyses the relationship between unemployment and residual wage dispersion for individuals with comparable attributes. In the conventional neoclassical point of view, wages are determined by the marginal product of the workers. Accordingly, increases in union minimum wages result in a decline of residual wage dispersion and higher unemployment. A competing view regards wage dispersion as the outcome of search frictions and the associated monopsony power of the firms. Accordingly, an increase in search frictions causes both higher unemployment and higher wage dispersion. The empirical analysis attempts to discriminate between the two hypotheses for West Germany analyzing the relationship between wage dispersion and both the level of unemployment as well as the transition rates between different labor market states. The findings are not completely consistent with either theory. However, as predicted by search theory, one robust result is that unemployment by cells is not negatively correlated with the within cell wage dispersion.
This paper evaluates the effects of Public Sponsored Training in East Germany in the context of reiterated treatments. Selection bias based on observed characteristics is corrected for by applying kernel matching based on the propensity score. We control for further selection and the presence of Ashenfelter's Dip before the program with conditional difference-in-differences estimators. Training as a first treatment shows insignificant effects on the transition rates. The effect of program sequences and the incremental effect of a second program on the reemployment probability are insignificant. However, the incremental effect on the probability to remain employed is slightly positive. JEL - Klassifikation: H43 , C23 , J6 , J64 , C14
Beitrag fur das 27. Wirtschaftswissenschaftliche Seminar Ottobeuren 14.- 17.9.1997). Dieser Beitrag nimmt aus theoretischer und ökonometrischer Sicht zu der Kontroverse über die Bedeutung der qualifikatorischen Lohnstruktur zur Erklärung der Beschäftigungsstruktur Stellung. Basierend auf einer Einteilung in drei Qualifikationsgruppen zeigt sich empirisch, daß die Entlohnung der mittleren Gruppe relativ zur unteren und oberen weniger stark ansteigt, während ein kontinuierlicher Trend zur Höherqualifikation der Beschäftigten besteht. Es werden eine Translog-Kostenfunktion und Anteilsgleichungen ökonometrisch geschätzt, um den Einfluß der Lohnstruktur auf die Beschäftigungsstruktur zu erfassen. Bei allen Vorbehalten aufgrund verschiedener Probleme der Schätzungen implizieren die Ergebnisse einen signifikanten Einfluß der qualifikatorischen Struktur der mittleren Löhne auf die Beschäftigungsstruktur wie auch eine die relative Beschäftigung steigernde Wirkung einer erhöhten Lohndispersion innerhalb der Qualifikationsgruppen. Damit besteht die Möglichkeit, daß mit einer größeren Lohnspreizung die Lastverteilung der Arbeitslosigkeit bei gegebenem Output, Kapitaleinsatz und technischem Fortschritt in Form einer Erhöhung der Beschäftigung von gering qualifizierten Arbeitnehmern angeglichen werden kann.
Zur wissenschaftlichen Evaluation der aktiven Arbeitsmarktpolitik in Deutschland : ein Überblick
(2000)
Dieser Beitrag gibt einen Überblick der neueren wissenschaftlichen Literatur zur Evaluation der Aktiven Arbeitsmarktpolitik (AAMP) in Deutschland. Das Grundproblem mikroökonomischer Evaluation besteht darin, den Vergleichsmaßstab bei Nichtteilnahme zu schätzen, sei es auf Basis einer vergleichbaren Kontrollgruppe von Nichtteilnehmern oder auf Basis der Situation vor Teilnahme. Entscheidend ist hierbei, den potentiellen Selektionsproblemen Rechnung zu tragen. Evaluationsstudien auf der Makroebene müssen zusätzlich auch die indirekten Effkete der AAMP auf den gesamten Arbeitsmarkt berücksichtigen und der möglichen Endogenität der AAMP Rechnung tragen. Die meisten Evaluationsstudien fur Deutschland zeigen keine signifikant positiven Beschäftigungseffekte der AAMP, sind jedoch mit großer statistischer Unsicherheit behaftet. Wir führen letzteres im wesentlichen darauf zurück, daß wegen zu geringen Datenumfangs meist äußerst heterogene Maßnahmen gepoolt werden und daß über Teilnehmer und Nichtteilnehmer zu wenige Hintergrundinformationen verfügbar sind. Aufgrund dieser Datenrestriktionen verbietet sich daher aus Sicht der Autoren ein vorschnelles Verdikt über die ökonomischen Wirkungen der AAMP, obwohl mögliche positive Effekte nicht sehr stark sein können, da sie sonst vermutlich trotz unterschiedlicher Methoden und unzureichender Daten empirisch hätten identifiziert werden können.
Central wage bargaining and local wage flexibility : evidence from the entire wage distribution
(1998)
We argue that in labor markets with central wage bargaining wage flexibility varies systematically across the wage distribution: local wage flexibility is more relevant for the upper part of the wage distribution, and flexibility of wages negotiated under central wage bargaining affects the lower part of the wage distribution. Using a random sample of German social-security accounts, we estimate wage flexibility across the wage distribution by means of quantile regressions. The results support our hypothesis, as employees with low wages have significantly lower local wage flexibility than high wage employees. This effect is particularly relevant for the lower educational groups. On the other hand, employees with low wages tend to have a higher wage flexibility with respect to national unemployment.
The Box-Cox quantile regression model using the two stage method introduced by Chamberlain (1994) and Buchinsky (1995) provides an attractive extension of linear quantile regression techniques. However, a major numerical problem exists when implementing this method which has not been addressed so far in the literature. We suggest a simple solution modifying the estimator slightly. This modification is easy to implement. The modified estimator is still [square root] n-consistent and its asymptotic distribution can easily be derived. A simulation study confirms that the modified estimator works well.
This paper investigates the magnitude and the main determinants of share price reactions to buy-back announcements of German corporations. For our comprehensive sample of 224 announcements that took place between May 1998 and April 2003 we find average cumulative abnormal returns around -7.5% for the thirty days preceding the announcement and around +7.0 % for the ten days following the announcement. We regress post-announcement abnormal returns with multiple firm characteristics and provide evidence which supports the undervaluation signaling hypothesis but not the excess cash hypothesis or the tax-efficiency hypothesis. In extending prior empirical work, we also analyze price effects from initial statements of firms that they intend to seek shareholder approval for a buy-back plan. Observed cumulative abnormal returns on this initial date are in excess of 5% implying a total average price effect between 12% and 15% from implementing a buy-back plan. We conjecture that the German regulatory environment is the main reason why market variations to buy-back announcements are much stronger in Germany than in other countries and conclude that initial statements by managers to seek shareholders’ approval for a buy-back plan should also be subject to legal ad-hoc disclosure requirements.
This paper shows that abnormal stock price returns around open market repurchase announcements are about four times higher in Germany than in the US (12% versus 3%). We hypothesize that this observation can be explained by country differences in repurchase regulation. Our empirical evidence indicates that German managers primarily buy back shares to signal an undervaluation of their firm. We demonstrate that the stringent repurchase process prescribed by German law attributes a higher credibility to such a signal than lax US regulations and thereby corroborate our hypothesis.
Unter dem Stichwort "Patchwork-Biografien" wird die Tatsache, dass ein großer Teil der abhängig Beschäftigten ihren erlernten Beruf nicht mehr ausüben, in jüngster Zeit viel diskutiert. Diese Studie liefert einen empirischen Beitrag zur Anatomie der Berufswechsel für westdeutsche Männer auf Basis der BIBB/IABDaten 1998/1999. Als Grundlage für die empirische Analyse wird ein theoretisches Modell der Wahl zwischen horizontal differenzierten Berufen entwickelt. Die wichtigsten Ergebnisse sind: Ex post beobachtete Berufswechsel hängen negativ vom Durchschnittslohn im Ausbildungsberuf und positiv vom Durchschnittslohn im Erwerbsberuf ab. Der deskriptiv beobachtete durchschnittliche Entlohnungseffekt eines Berufswechsels ist signifikant positiv, verstärkt sich noch, wenn für den Ausbildungsberuf kontrolliert wird, und ist demgegenüber signifikant negativ, wenn für den Erwerbsberuf kontrolliert wird. Der geschätzte kausale durchschnittliche Entlohnungseffekt ist positiv. Die Ergebnisse sind insgesamt damit konsistent, dass Berufswechsel vor allem damit zusammenhängen, dass Beschäftigte im neuen Erwerbsberuf größere Verdienst- und Karrierechancen wahrnehmen können. JEL - Klassifikation: J62 , J31 , J24 , C21
Thema dieser Arbeit ist eine ökonomische Einordnung der Förderung der beruflichen Weiterbildung (FbW) als Teil der Aktiven Arbeitsmarktpolitik in Deutschland. Die Analyse erfolgt im Lichte des sektoralen Wandel, der Verschiebung der qualifikatorischen Arbeitsnachfrage und der vorrauszusehenden Produktivitätseffekte im Zusammenhang mit einer alternden Gesellschaft. Auf Basis der Humankapitaltheorie wird zunächst theoretisch erörtert, inwieweit sich FbW als Teil der Aktiven Arbeitsmarktpolitik aus Effizienz- und Verteiliungsgesichtspunkten rechtfertigen lässt und in welcher Form FbW sinnvoll sein kann.
Über die Wirkung der Förderung der beruflichen Weiterbildung in Ostdeutschland sind in den letzten Jahren zahlreiche empirische Studien durchgeführt worden, die auf den methodischen Fortschritten der Evaluationsforschung aufbauen. Dieser Beitrag stellt die empirische Evidenz im Kontext der institutionellen Regelungen und der methodischen Probleme einer angemessenen mikro- oder makroökonomischen Evaluation dar. Insbesondere behandeln wir die im ostdeutschen Kontext wichtigen Probleme der Mehrfachteilnahmen und der Reduktion der Beschäftigungsquoten für die Teilnehmer kurz vor einer Weiterbildung ("Ashenfelters Tal"), die bislang in empirischen Analysen kaum Berücksichtigung finden. Die durchgeführten mikroökonomischen Evaluationsstudien basieren auf Umfragedaten mit kleinen Teilnehmerzahlen. Die erzielten Evaluationsergebnisse ergeben ein ernüchterndes Bild der Wirkung geförderter Weiterbildung: Es zeigen sich eher negative als positive Maßnahmeneffekte auf die Beschäftigung. Aufgrund der schwachen Datenbasis und verbleibender methodischer Probleme erlaubt die bisherige Evidenz jedoch noch keine wirtschaftspolitischen Schlussfolgerungen. Stattdessen sollten die eher negativen Ergebnisse von der politischen Seite zum Anlass genommen werden, die Voraussetzungen für eine angemessene und kontinuierliche Evaluation der aktiven Arbeitsmarktpolitik zu schaffen.
This paper analyzes empirically the distribution of unemployment durations in West- Germany before and after the changes during the mid 1980s in the maximum entitlement periods for unemployment benefits for elderly unemployed. The analysis is based on the comprehensive IAB employment subsample containing register panel data for about 500.000 individuals in West Germany. We analyze two proxies for unemployment since the data do not precisely measure unemployment in an economic sense. We provide a theoretical analysis of the link between the durations of nonemployment and of unemployment between jobs. Our empirical analysis finds significant changes in the distributions of nonemployment durations for older unemployed individuals. At the same time, the distribution of unemployment durations between jobs did not change in response to the reforms. Our findings are consistent with an interpretation that many firms and workers used the more bene cial laws as a part of early retirement packages but those workers who were still looking for a job did not reduce their search effort in response to the extension of the maximum entitlement periods. This interpretation is consistent with our theoretical model under plausible assumptions. JEL: C24, J64, J65
This paper examines intraday stock price effects and trading activity caused by ad hoc disclosures in Germany. The evidence suggests that the observed stock prices react within 90 minutes after the ad hoc disclosures. Trading volumes take even longer to adjust. We find no evidence for abnormal price reactions or abnormal trading volume before announcements. The bigger the company that announces an ad hoc disclosure, the less severe is the abnormal price effect following the announcement. The number of analysts is negatively correlated to the trading volume effect before the ad hoc disclosure. The higher the trading volume on the last trading day before the announcement, the greater is the price effect after the ad hoc disclosures and the greater the trading volume effect. Keywords: ad hoc disclosure rules, intraday stock price adjustments, market efficiency.
We show that multi-bank loan pools improve the risk-return profile of banks’ loan business. Banks write simple contracts on the proceeds from pooled loan portfolios, taking into account the free-rider problems in joint loan production. Thus, banks benefit greatly from diversifying credit risk while limiting the efficiency loss due to adverse incentives. We present calibration results that the formation of loan pools reduce the volatility in default rates, proxying for credit risk, of participating banks’ loan portfolios by roughly 70% in our sample. Under reasonable assumptions, the gain in return on equity (in certainty equivalent terms) is around 20 basis points annually.
Die im Rahmen dieser Diplomarbeit entwickelte sehr einfach und kompakt aufgebaute Mikro-Ionenquelle basiert auf einer Mikro-Struktur-Elektrode (MSE). Mit dieser lässt sich bei einer Betriebsspannung von wenigen 100 Volt eine stabile Hochdruck-Glimmentladung erzeugen. Das Betriebsgas durchströmt die MSE-Pore und expandiert anschließend adiabatisch ins Vakuum, wobei die interne Temperatur des Strahls herabgesetzt wird. Der Vordruck des Gases kann bei dem vorhandenen Aufbau zwischen wenigen 100 hPa und etwa 0,5 MPa liegen. Mit einem ähnlichen Aufbau, jedoch mit deutlich größerer Saugleistung der Vakuumpumpen, konnte selbst bei Vordrücken über 3 MPa noch eine Entladung mit gleichen Eigenschaften betrieben werden. Es wurde gezeigt, dass Ionen durch Diffusion sowie die starke Gasströmung in der MSE-Pore aus dem Plasma extrahiert werden. Eine zusätzliche Beschleunigungsspannung zeigt einen deutlichen Einfluss auf die Formierung eines Ionenstrahls. Es kann ein schmaler Strahl mit maximal einigen mm Durchmesser erzeugt werden. Die Mikroentladung lässt sich mit zahlreichen Gasen betreiben. Erfolgreich getestet wurden Helium, Neon, Argon, Stickstoff und normale Luft sowie Mischungen davon. Auch eine Beimischung von Wasserstoff ist möglich und eröffnet die Erzeugung beispielsweise von molekularen HeH+-Ionen. Zur Extraktion der Ionen kann eine Beschleunigungsspannung von bis zu 5 kV angelegt werden. Der Ionenstrahl wird über ein differenzielles Pumpsystem durch einen Skimmer ins Hochvakuum überführt und dort analysiert. Es entstehen sowohl einfach als auch doppelt geladene Ionen. Bei einem Entladestrom von wenigen mA lässt sich ein Strom von bis zu 3 mA (ohne Sekundärelektronen-Unterdrückung) auf dem Skimmer messen. Die Stromdichte des Strahls ist jedoch zu hoch, um mit der verwendeten einfachen Diodenextraktion den gesamten Strom durch den Skimmer zu transportieren. Nur ein Anteil von ca. 1/50 bis 1/30 des gesamten Ionenstroms kann den Skimmer passieren. Hinter dem Skimmer liegt der Strom zwischen einigen 100 nA und einigen 10 µA. Durch Optimierung der Extraktionsgeometrie sollte hier eine deutliche Erhöhung erreicht werden. Im normalen Betrieb wird mit einem Entladestrom von 1-2 mA gearbeitet. Zum einen ist hier bereits, wie eben erwähnt, die maximale Stromdichte erreicht, die durch den Skimmer transportiert werden kann. Zudem sinkt mit steigendem Strom die Haltbarkeit der MSE-Elektroden aufgrund verstärkten Sputterns erheblich, auch dies spricht gegen einen Betrieb mit hohem Plasmastrom. Der maximale bisher erreichte Entladestrom in einem MSE-Plasma beträgt 50 mA. Der Elektrodenabtrag begrenzt momentan die Betriebsdauer einer MSE auf wenige Stunden. Durch die Einführung von Wolfram-Elektroden konnte bereits eine deutliche Steigerung der Haltbarkeit erreicht werden, für eine sinnvolle Anwendung der Ionenquelle muss jedoch noch eine Weiterentwicklung der MSE stattfinden. Dass sich der Kühleffekt aufgrund der adiabatischen Expansion auf im Plasma erzeugte metastabile He*-Atome auswirkt, wurde im Rahmen einer zweiten Diplomarbeit zum Thema Plasmajet gezeigt. Mit einem Aufbau nach demselben Prinzip, jedoch ohne Extraktionsspannung, wurde eine Apparatur zur Erzeugung eines spinpolarisierten metastabilen Helium-Targets realisiert [Jahn2002]. Es wurde gezeigt, dass zum einen der Energieeintrag ins Gas durch die Entladung sehr gering ist. Es handelt sich also beim MSE-Hochdruck- Plasma tatsächlich um eine nichtthermische Entladung. Zum anderen konnte in ergänzenden Flugzeitmessungen gezeigt werden, dass die Geschwindigkeitsverteilung der Metastabilen der eines herkömmlichen Gasjets entspricht. Der Kühleffekt wirkt also auf die Metastabilen genauso wie auf Gasatome im Grundzustand, ohne dabei die Metastabilen abzuregen. Um die Geschwindigkeitsverteilung der Ionen zu untersuchen, ist die verwendete Methode jedoch nicht ohne weiteres anwendbar. Aufgrund der Coulomb- Abstoßung der Ionen weist der unbeschleunigte Ionenstrahl eine starke Divergenz auf. Die Intensität des Ionensignals auf dem Detektor ist somit äußerst gering, was eine Flugzeitmessung kaum sinnvoll erscheinen lässt. Mit den vorhandenen Diagnosemethoden konnte daher ein Kühleffekt aufgrund der adiabatischen Expansion auf die Ionen nicht verifiziert werden. Mit der Mikro-Ionenquelle wurde jedoch gezeigt, dass es eine Wechselwirkung zwischen Ionen und Gasjet gibt: versucht man, die Ionen mit einer Extraktionsspannung zu beschleunigen, so erfahren sie aufgrund zahlreicher Stöße mit den langsameren Gasteilchen einen massiven Energieverlust. Man erhält einen Ionenstrahl mit stark verbreiterter Energieverteilung. Dies zeigt, dass sich die Ionen im Bereich hoher Dichte mit dem Jet bewegen. Stört man die Expansion, indem man die Ionen mittels der Beschleunigungsspannung aus dem Jet herausreißt, so erfahren sie durch die Wechselwirkung mit den Atomen im Jet einen erheblichen Energieverlust. Es ist daher zu vermuten, dass auch die Ionen gekühlt werden. Misst man mit Hilfe eines Quadrupol-Massenspektrometers das Spektrum von nicht beschleunigten Ionen, so erhält man scharfe Peaks, es tritt also kein Energieverlust auf. Zur Messung des Geschwindigkeitsprofils eignet sich diese Methode jedoch nicht. Es ist daher sinnvoll, in Zukunft mit einer entsprechend angepassten Apparatur auch für die Ionen eine Flugzeitmessung durchzuführen. Die schlechte Energieschärfe des Ionenstrahls ist ein erheblicher Nachteil für viele Anwendungen. Für zukünftige Weiterentwicklungen der Mikro- Ionenquelle muss eine geeignetere Extraktionsgeometrie gefunden werden. Eine Möglichkeit wäre, die Ionen mit dem Gasjet mitfliegen zu lassen und in größerem Abstand zu beschleunigen, wenn die Dichte im Jet stark abgefallen ist. In diesem Fall muss man jedoch eine sinnvolle Lösung für Größe und Position des Skimmers finden oder klären, ob auf einen Skimmer vollständig verzichtet werden kann. Es könnte bei dieser Lösung hilfreich sein, die Raumladungsdichte im Ionenstrahl durch Überlagerung mit einem Elektronenstrahl zu reduzieren und so die Divergenz des Strahls zu verringern. Man könnte die Divergenz auch verringern, indem man den Ionenstrahl durch ein Magnetfeld einschließt. Hierbei provoziert man aber vermutlich durch die Spiralbewegung der Ionen zusätzliche Stöße mit dem Jet. Denkbar wäre auch, die Ionen mit Hilfe elektrischer Felder aus dem Gasjet herauszulenken und anschließend zu beschleunigen. Bekommt man das Problem des Energieverlusts in den Griff, so erhält man eine leistungsfähige Ionenquelle, die ein großes Potential für Anwendungen bietet. Der kompakte Aufbau ermöglicht einen Verzicht auf Wechselspannungen, Mikrowellenstrahlung sowie magnetischen Einschluss. Da es sich um eine Gleichspannungsentladung mit wenigen Watt Leistung handelt, ist ein sehr energieeffizienter Betrieb möglich. Die gemessenen Ionenströme zeigen, dass eine Hochdruckentladung auf der Basis von MSE eine hohe Ionisationseffizienz aufweist. Der hohe Arbeitsdruck ermöglicht eine große Ausbeute an molekularen Ionen. Gelingt es, den Kühleffekt des Gasjets auf die Ionen zu nutzen, so erzeugt man einen Ionenstrahl mit sehr niedriger interner Temperatur, der für atomphysikalische Experimente interessant ist. Zudem ließe sich ein solcher Strahl auf sehr kleine Durchmesser fokussieren, was eine hohe Genauigkeit etwa bei Oberflächenmodifikationen erlaubt. Die Untersuchungen im Bereich Gasanalytik haben gezeigt, dass Hochdruckentladungen hier eine Alternative zu den herkömmlichen, auf Niederdruckentladungen basierenden, Messverfahren darstellen. Die sehr guten Nachweisgrenzen für Freon in Kombination mit dem einfachen und kompakten Aufbau sprechen für die Hochdruckentladung. Jedoch muss für eine sinnvolle Nutzung die Haltbarkeit der MSE noch deutlich erhöht werden.
Im Rahmen des Value Based Managements sollen alle Manahmen der Unternehmensfhrung auf die Steigerung des intrinsischen Marktwertes des Eigenkapitals ausgerichtet werden. Hauptanwendungsbereiche des Value Based Managements sind die Planung, Performancemessung, Managemententlohnung sowie die Bereichssteuerung. Eine konsequente shareholder-orientierte Steuerung beinhaltet eine adquate Ermittlung von Wertbeitrgen in den einzelnen Anwendungsbereichen. Hierzu dienen insbesondere absolute Wertbeitragskennzahlen in Form von Residualgewinnen. Residualgewinne sind dadurch gekennzeichnet, dass der Gewinn um eine auf das Gesamtkapital bezogene Capital bzw. Interest Charge reduziert wird. Der magebliche Gewinn sowie das Gesamtkapital ergeben sich, indem die handelsrechtlichen Gren durch mehr oder minder weitreichende Modifikationen angepasst werden. Die Berechnung der Interest Charge erfolgt entweder auf Basis eines risikoangepassten Zinssatzes oder auf Basis eines risikofreien Zinssatzes. In der Praxis finden sich zahlreiche unterschiedliche Residualgewinnkonzepte, die sich insbesondere durch die jeweils charakteristischen Modifikationen und durch den verwendeten Zinssatz zur Berechnung der Kapitalkosten unterscheiden.1) Herkmmliche Konzepte zeichnen sich dadurch aus, dass die Interest Charge auf Basis eines risikoangepassten Zinssatzes berechnet wird. Das in Velthuis (2003c) theoretisch entworfene und von der KPMG in der Praxis umgesetzte Konzept Earnings less Riskfree Interest Charge, ERIC , ist hingegen dadurch charakterisiert, dass zur Berechnung der Interest Charge ein risikofreier Zinssatz verwendet wird. Ferner werden Modifikationen nur insofern vorgenommen, als dass eine vollstndige Bercksichtigung aller Erfolgskomponenten gewhrleistet wird. Glaubt man den Vertretern herkmmlicher Konzepte, basieren diese Konzepte auf einer hinreichenden theoretischen Fundierung. Diesem Anspruch gengen solche Konzepte tatschlich jedoch nicht, sie zeichnen sich gerade durch eine mangelnde theoretische Fundierung aus.2) In Velthuis (2003c) wird verdeutlicht, dass die in der Praxis verbreitete Vorgehensweise gerade zum Ausweis von Wertbeitrgen fhrt, die inkonsistent mit der Zielsetzung der Shareholder sind. In allen Anwendungsbereichen des VBM zeigt sich nmlich aus theoretischer Sicht die Problematik der VerIm Rahmen des Value Based Managements sollen alle Maßnahmen der Unternehmensführung auf die Steigerung des intrinsischen Marktwertes des Eigenkapitals ausgerichtet werden. Hauptanwendungsbereiche des Value Based Managements sind die Planung, Performancemessung, Managemententlohnung sowie die Bereichssteuerung. Eine konsequente shareholder-orientierte Steuerung beinhaltet eine adäquate Ermittlung von Wertbeiträgen in den einzelnen Anwendungsbereichen. Hierzu dienen insbesondere absolute Wertbeitragskennzahlen in Form von Residualgewinnen. Residualgewinne sind dadurch gekennzeichnet, dass der Gewinn um eine auf das Gesamtkapital bezogene Capital bzw. Interest Charge reduziert wird. Der maßgebliche Gewinn sowie das Gesamtkapital ergeben sich, indem die handelsrechtlichen Größen durch mehr oder minder weitreichende Modifikationen angepasst werden. Die Berechnung der Interest Charge erfolgt entweder auf Basis eines risikoangepassten Zinssatzes oder auf Basis eines risikofreien Zinssatzes. In der Praxis finden sich zahlreiche unterschiedliche Residualgewinnkonzepte, die sich insbesondere durch die jeweils charakteristischen Modifikationen und durch den verwendeten Zinssatz zur Berechnung der Kapitalkosten unterscheiden.1) Herkömmliche Konzepte zeichnen sich dadurch aus, dass die Interest Charge auf Basis eines risikoangepassten Zinssatzes berechnet wird. Das in Velthuis (2003c) theoretisch entworfene und von der KPMG in der Praxis umgesetzte Konzept Earnings less Riskfree Interest Charge, ERIC Ò , ist hingegen dadurch charakterisiert, dass zur Berechnung der Interest Charge ein risikofreier Zinssatz verwendet wird. Ferner werden Modifikationen nur insofern vorgenommen, als dass eine vollständige Berücksichtigung aller Erfolgskomponenten gewährleistet wird. Glaubt man den Vertretern herkömmlicher Konzepte, basieren diese Konzepte auf einer hinreichenden theoretischen Fundierung. Diesem Anspruch genügen solche Konzepte tatsächlich jedoch nicht, sie zeichnen sich gerade durch eine mangelnde theoretische Fundierung aus.2) In Velthuis (2003c) wird verdeutlicht, dass die in der Praxis verbreitete Vorgehensweise gerade zum Ausweis von Wertbeiträgen führt, die inkonsistent mit der Zielsetzung der Shareholder sind. In allen Anwendungsbereichen des VBM zeigt sich nämlich aus theoretischer Sicht die Problematik der Verwendung eines risikoangepassten Zinssatzes zur Berechnung von Kapitalkosten: Schon die Verwendung eines risikoangepassten Kapitalkostensatzes im Rahmen der Planung kann problematisch sein. Die Verwendung risikoangepasster Kapitalkosten als Benchmark bei der Performancemessung ist sogar ganz abzulehnen, und bei der Managemententlohnung ist die Verrechnung von risikoangepassten Kapitalkosten zwingend mit Fehlanreizen verbunden. Aber auch praxisübliche Modifikationen erweisen sich als problematisch, da Erfolgskomponenten nicht bzw. nicht vollständig berücksichtigt werden. Im Gegensatz zu herkömmlichen Konzepten weist das VBM-Konzept ERIC eine tatsächliche theoretische Fundierung auf. In Velthuis (2003c) werden grundlegende theoretische und praktische Anforderungen für die einzelnen Anwendungsbereiche herausgearbeitet und es wird gezeigt, dass ein integriertes VBM-Konzept auf Basis des Residualgewinns ERIC diese Anforderungen stets erfüllt. Ziel dieses Aufsatzes ist es, die Grundkonzeption von ERIC theoretisch weiter zu entwickeln. Während in Velthuis (2003c) stets von einer sehr einfachen Idealwelt ausgegangen wird, soll hier zum einen verdeutlicht werden, wie ein erfolgreiches Value Based Management auf Basis von ERIC in komplexeren und realitätsnäheren Situationen erfolgen kann. Zum anderen gilt es, zusätzliche praktische Problembereiche zu erkennen und Lösungsmöglichkeiten aufzuzeigen. Der Aufsatz ist wie folgt aufgebaut: Zunächst wird gezeigt, wie der Residualgewinn ERIC zu berechnen ist, und es wird ein Überblick über die Anwendungsbereiche gegeben. Anschließend wird die grundlegende Entscheidungssituation für die späteren Darstellungen erörtert und es werden fundamentale Prinzipien des Value Based Managements und ihre Bedeutung für die einzelnen Anwendungsbereichen erläutert. Sodann wird für die einzelnen Bereichen des Value Based Managements, der Planung, Performancemessung, Managemententlohnung und der Bereichssteuerung gezeigt, wie ERIC anzuwenden ist, damit eine tatsächliche Shareholder-Orientierung gewährleistet wird. Die Darstellungen erfolgen dabei jeweils zunächst vor dem Hintergrund einer Idealwelt. In einem zweiten Schritt wird die Entscheidungssituation jeweils modifiziert, um der Realität ein Stück näher zu kommen.