Refine
Year of publication
- 2002 (1268) (remove)
Document Type
- Article (514)
- Doctoral Thesis (190)
- Part of Periodical (117)
- Part of a Book (97)
- Review (88)
- Working Paper (83)
- Book (49)
- Preprint (47)
- Conference Proceeding (23)
- diplomthesis (22)
Language
- German (862)
- English (360)
- French (18)
- Portuguese (11)
- mis (5)
- Spanish (5)
- Multiple languages (3)
- Turkish (2)
- Italian (1)
- Polish (1)
Has Fulltext
- yes (1268) (remove)
Is part of the Bibliography
- no (1268) (remove)
Keywords
- Rezension (49)
- Deutschland (26)
- Literatur (20)
- Frankfurt <Main> / Universität (17)
- Frankfurt <Main> (15)
- Theater (14)
- Vormärz (14)
- Phonetik (12)
- Deutsch (11)
- Phonologie (11)
Institute
- Physik (85)
- Extern (71)
- Medizin (66)
- Rechtswissenschaft (48)
- Biochemie und Chemie (47)
- Wirtschaftswissenschaften (38)
- Biowissenschaften (32)
- Gesellschaftswissenschaften (31)
- Pharmazie (25)
- Informatik (22)
We compare different models for hadronic and quark phases of cold baryon rich matter in an attempt to find a deconfinement phase transition between them. For the hadronic phase we consider Walecka type mean field models which describe well the nuclear saturation properties. We also use the variational chain model which takes into account correlation effects. For the quark phase we consider the MIT bag model, the Nambu Jona-Lasinio and the massive quasiparticle models. By comparing pressure as a function of baryon chemical potential we find that crossings of hadronic and quark branches are possible only in some exceptional cases while for most realistic parameter sets these branches do not cross at all. Moreover, the chiral phase transition, often discussed within the framework of QCD motivated models, lies in the region where the quark phases are unstable with respect to the hadronic phase. We discuss possible physical consequences of these findings.
The high E(T) drop of J / psi to Drell-Yan ratio from the statistical c anti-c coalescence model
(2002)
The dependence of the J/psi yield on the transverse energy ET in heavy ion collisions is considered within the statistical c¯c coalescence model. The model fits the NA50 data for Pb+Pb collisions at the CERN SPS even in the high-ET region (ET >< 100 GeV). Here ET -fluctuations and ET -losses in the dimuon event sample naturally create the celebrated drop in the J/psi to Drell-Yan ratio.
The amount of proton stopping in central Pb+Pb collisions from 20 160 A·GeV as well as hyperon and antihyperon rapidity distributions are calcu- lated within the UrQMD model in comparison to experimental data at 40, 80 and 160 A·GeV taken recently from the NA49 collaboration. Further- more, the amount of baryon stopping at 160 A·GeV for Pb + Pb collisions is studied as a function of centrality in comparison to the NA49 data. We find that the strange baryon yield is reasonably described for central colli- sions, however, the rapidity distributions are somewhat more narrow than the data. Moreover, the experimental antihyperon rapidity distributions at 40, 80 and 160 A·GeV are underestimated by up to factors of 3 - depending on the annihilation cross section employed - which might be addressed to missing multi-meson fusion channels in the UrQMD model. PACS 25.75.+r
We study central collision of Pb + Pb at 20, 40, 80 and 160 A·GeV within the UrQMD transport approach and compare rapidity distributions of ,K+,K and with the recent measurements from the NA49 Collaboration at 40, 80 and 160 A·GeV. It is found that the UrQMD model reasonably describes the data, however, systematically overpredicts the yield by < 20%, whereas the K+ yield is underestimated by < 15%. The K yields are in a good agreement with the experimental data, the yields are also in a reasonable correspondence with the data for all energies. We find that hadronic flavour exchange reactions largely distort the information about the initial strangeness production mechanism at all energies considered. PACS: 25.75.+r
We discuss the possibility of producing a new kind of nuclear system by putting a few antibaryons inside ordinary nuclei. The structure of such systems is calculated within the relativistic mean field model assuming that the nucleon and antinucleon potentials are related by the G parity transformation. The presence of antinucleons leads to decreasing vector potential and increasing scalar potential for the nucleons. As a result, a strongly bound system of high density is formed. Due to the significant reduction of the available phase space the annihilation probability might be strongly suppressed in such systems.
The recently published experimental dependence of the J/psi suppression pattern in Pb+Pb collisions at the CERN SPS on the energy of zero degree calorimeter EZDC are analyzed. It is found that the data obtained within the minimum bias analysis (using theoretical Drell-Yan ) are at variance with the previously published experimental dependence of the same quantity on the transversal energy of neutral hadrons ET . The discrepancy is related to the moderate centrality region: 100 << Np << 200 (Np is the number of nucleon participants). This could result from systematic experimental errors in the minimum bias sample. A possible source of the errors may be contamination of the minimum bias sample by o -target interactions. The data obtained within the standard analysis (using measured Drell-Yan multiplicity) are found to be much less sensitive to the contamination.
The measured particle ratios in central heavy-ion collisions at RHIC-BNL are investigated within a chemical and thermal equilibrium chiral SU(3) theta - omega approach. The commonly adopted noninteracting gas calculations yield temperatures close to or above the critical temperature for the chiral phase transition, but without taking into account any interactions. Contrary, the chiral SU(3) model predicts temperature and density dependent e ective hadron masses and e ective chemical potentials in the medium and a transition to a chirally restored phase at high temperatures or chemical potentials. Three di erent parametrizations of the model, which show di erent types of phase transition behaviour, are investigated. We show that if a chiral phase transition occured in those collisions, freezing of the relative hadron abundances in the symmetric phase is excluded by the data. Therefore, either very rapid chemical equilibration must occur in the broken phase, or the measured hadron ratios are the outcome of the dynamical symmetry breaking. Furthermore, the extracted chemical freeze-out parameters di er considerably from those obtained in simple noninteracting gas calculations. In particular, the three models yield up to 35 MeV lower temperatures than the free gas approximation. The in-medium masses turn out di er up to 150 MeV from their vacuum values.
We calculate p, ±,K± and (+ 0) rapidity distributions and compare to experimental data from SIS to SPS energies within the UrQMD and HSD transport approaches that are both based on string, quark, diquark (q, ¯q, qq, ¯q ¯q) and hadronic degrees of freedom. The two transport models do not include any explicit phase transition to a quark-gluon plasma (QGP). It is found that both approaches agree rather well with each other and with the experimental rapidity distributions for protons, s, ± and K±. In- spite of this apparent agreement both transport models fail to reproduce the maximum in the excitation function for the ratio K+/ + found experimen- tally between 11 and 40 A·GeV. A comparison to the various experimental data shows that this failure is dominantly due to an insu cient description of pion rapidity distributions rather than missing strangeness . The modest di erences in the transport model results on the other hand can be attributed to di erent implementations of string formation and frag- mentation, that are not su ciently controlled by experimental data for the elementary reactions in vacuum.
A canonical partition function for the two-component excluded volume model is derived, leading to two di erent van der Waals approximations. The one is known as the Lorentz-Berthelot mixture and the other has been proposed recently. Both models are analysed in the canonical and grand canonical ensemble. In comparison with the one-component van der Waals excluded volume model the suppression of particle densities is reduced in these two-component formulations, but in two essentially di erent ways. Presently used multi-component models have no such reduction. They are shown to be not correct when used for components with di erent hard-core radii. For high temperatures the excluded volume interaction is refined by accounting for the Lorentz contraction of the spherical excluded volumes, which leads to a distinct enhancement of lighter particles. The resulting e ects on pion yield ratios are studied for AGS and SPS data.
The amount of proton stopping in central Pb+Pb collisions from 20–160 A GeV as well as hyperon and antihyperon rapidity distributions are calculated within the UrQMD model in comparison to experimental data at 40, 80, and 160 A GeV taken recently from the NA49 collaboration. Furthermore, the amount of baryon stopping at 160A GeV for Pb+Pb collisions is studied as a function of centrality in comparison to the NA49 data. We find that the strange baryon yield is reasonably described for central collisions, however, the rapidity distributions are somewhat more narrow than the data. Moreover, the experimental antihyperon rapidity distributions at 40, 80, and 160 A GeV are underestimated by up to factors of 3—depending on the annihilation cross section employed—which might be addressed to missing multimeson fusion channels in the UrQMD model. Pacs-Nr.: 25.75.2q, 24.10.Jv, 24.10.Lx
Im Rahmen einer Zusammenschau werden im hier vorliegenden Bericht landwirtschaftliche und den ländlichen Raum betreffende Entwicklungen eingeschätzt und, in Verbindung hiermit, künftige Umweltentlastungen sowie mögliche neue Umweltgefährdungen dargestellt. Im Mittelpunkt der Betrachtungen steht die Nahrungsmittelproduktion in Deutschland, wobei die Integration der deutschen Landwirtschaft in die europäische Landwirtschaft und die Weltwirtschaft und die hiermit einhergehenden äußeren Einflüsse einbezogen werden. Der Zeithorizont der Betrachtungen ist der Zeitraum bis 2030. ...
The lightest supersymmetric particle, most likely the lightest neutralino, is one of the most prominent particle candidates for cold dark matter (CDM). We show that the primordial spectrum of density fluctuations in neutralino CDM has a sharp cut-off, induced by two different damping mechanisms. During the kinetic decoupling of neutralinos, non-equilibrium processes constitute viscosity effects, which damp or even absorb density perturbations in CDM. After the last scattering of neutralinos, free streaming induces neutralino flows from overdense to underdense regions of space. Both damping mechanisms together define a minimal mass scale for perturbations in neutralino CDM, before the inhomogeneities enter the non- linear epoch of structure formation. We find that the very first gravitationally bound neutralino clouds ought to have masses above 10-6M , which is six orders of magnitude above the mass of possible axion miniclusters.
We study properties of compact stars with the deconfinement phase transition in their interiors. The equation of state of cold baryon-rich matter is constructed by combining a relativistic mean-field model for the hadronic phase and the MIT Bag model for the deconfined phase. In a narrow parameter range two sequences of compact stars (twin stars), which differ by the size of the quark core, have been found. We demonstrate the possibility of a rapid transition between the twin stars with the energy release of about 10 ^52 ergs. This transition should be accompanied by the prompt neutrino burst and the delayed gamma-ray burst.
A novel mechanism of H0 and strangelet production in hadronic interactions within the Gribov-Regge approach is presented. In contrast to traditional distillation approaches, here the production of multiple (strange) quark bags does not require large baryon densities or a QGP. The production cross section increases with center of mass energy. Rapidity and transverse momentum distributions of the H 0 are predicted for pp collisions at E_lab = 160 AGeV (SPS) and \sqrt s = 200 AGeV (RHIC). The predicted total H 0 multiplicities are of order of the Omega-baryon yield and can be accessed by the NA49 and the STAR experiments.
The production of multiple strange baryons in pp interactions is studied. Here one can directly probe the microscopic decay of color flux tubes, allowing to differentiate between different string models and a statistical description of the hadronization. To analyse the different stages of a heavy ion collision the time evolution of the elastic and inelastic collision rates in central Pb+Pb interactions are studied. The microscopic simulation supports the idea of separated phases (non-equilibrium -> chemical freeze-out -> kinetic freeze-out) in the evolution of the system. The spectra and abundances of Lambda(1520), K 0(892) and other resonances are used to study the break-up dynamics of the source between chemical and thermal freeze-out.
Untersuchung biochemischer Parameter des Lipidstoffwechsels bei chirurgischen Intensivpatienten
(2002)
Das Ziel der vorliegenden Arbeit war, die biochemischen Zusammenhänge von häufig auftretenden Störungen des Fettstoffwechsels unter den Bedingungen der längerfristigen postoperativen Intensivtherapie zu untersuchen. In die Untersuchung eingeschlossen wurden Patienten mit einer Mindestaufenthaltsdauer auf der chirurgischen Intensivpflegestation von sieben Tagen, bei denen im Verlauf dieses Aufenthalts der prozentuale Anteil der alpha-Lipoproteine (elektrophoretisch) auf 20 % oder darunter bzw. der Cholesterinesterquotient auf 50 % oder darunter sank. Die Ergebnisse der Lipidelektrophorese korrelieren bei Seren von Gesunden gut mit Ergebnissen der Referenzmethode Ultrazentrifugation. Bei chirurgischen Intensivpatienten, die z. T. starke Veränderungen des Lipoproteinstoffwechsels aufweisen, ist die Lipidelektrophorese als Methode nur bedingt geeignet, denn es ergeben sich deutliche Abweichungen der Ergebnisse im Vergleich zu denen der Ultrazentrifugation. Bei den untersuchten Intensivpatienten, in deren Seren keine elektrophoretische Mobilität der alpha-Lipoproteine feststellbar war, konnten dennoch Lipoproteine mit hoher Dichte (HDL2 und HDL3) per Ultrazentrifugation nachgewiesen werden. Im Vergleich zu gesunden Kontrollpersonen waren in diesen Fraktionen allerdings die Konzentrationen von Apolipoprotein AI und auch die berechnete Gesamtmasse der Fraktionen signifikant vermindert. Mit der elektrophoretischen Trennmethode wurde der prozentuale beta-Lipoproteinanteil im Serum signifikant höher berechnet als der Anteil der Lipoproteine mit geringer Dichte (LDL) nach Trennung durch Ultrazentrifugation, der alpha-Lipoproteinanteil wurde signifikant niedriger berechnet als der HDL-Anteil. Nach Ultrazentrifugation der Patientenseren wurden stark veränderte Zusammensetzungen der einzelnen Lipoproteinfraktionen beobachtet. Der Anteil des freien Cholesterins war bei diesen Patienten in allen vier Lipoproteinfraktionen signifikant erhöht. Extrem niedrige Cholesterinesteranteile fanden sich in LDL- und HDL-Fraktionen. Da in diesen Fraktionen andererseits die Triglycerid-Anteile erhöht waren, wiesen die Lipoproteinpartikel im Vergleich zum Normbereich veränderte Kernzusammensetzungen auf. Bei den Intensivpatienten war der Quotient Kernbestandteile/Oberflächenbestandteile insbesondere in den beiden HDL-Fraktionen signifikant erniedrigt, woraus sich auf verkleinerte Lipoproteinpartikel schließen läßt. Erniedrigte Serumkonzentrationen von Cholesterinestern und abnormale Lipoproteinzusammensetzungen korrelierten mit signifikant verminderter, teils ganz fehlender in vitro Cholesterinveresterung. Zugleich lag Apolipoprotein AI, welches als Cofaktor des Enzyms Lecithin-Cholesteryl-Acyl-Transferase (LCAT) fungiert, in den HDL-Fraktionen nur in sehr niedrigen Konzentrationen vor. Bei den Patienten, in deren Serum keine LCAT-Aktivität nachweisbar war, konnten dennoch Cholesterinester in allen Fraktionen gemessen werden. Eine stark erniedrigte oder fehlende LCAT-Aktivität gilt als prognostisch ungünstig, kann aber reversibel sein. Signifikant erniedrigt war der prozentuale Anteil des Linolats an den Esterfettsäuren im Serum, während der prozentuale Anteil des Oleats signifikant erhöht war. Dadurch erhöhte sich auch der Quotient Oleat/Linolat (18:1 / 18:2) in signifikanter Weise. Der signifikant erhöhte Serumacylquotient (18:1 + 18:2) / 16:0 weist darauf hin, daß die Konzentrationen der freien ungesättigten C 18–Fettsäuren im Vergleich zur Palmitinsäure erhöht waren. Die vorgestellten Ergebnisse verdeutlichen die Komplexität des Fettstoffwechsels insbesondere im Hinblick auf die Entgleisungen bei intensivpflegepflichtigen chirurgischen Patienten.
Der Stern der Erlösung
(2002)
'Der Stern der Erlösung' von Franz Rosenzweig (1886-1929) ist eines der klassischen Werke der deutschen Philosophie des 20. Jahrhunderts. Das Werk ist nach klassischen Schema Gott - Welt - Mensch angelegt. Es ist nicht nur (aber auch) als jüdisch-religionsphilosophische Schrift anzusehen, sondern steht zwischen dem deutschen Neukantinaismus, der Lebens- und der Existenz(ial)philosophie. Die digitale Neuausgabe entspricht dem Text der Druckversionen, normalisiert aber zwecks besserer Recherche einige eigenwillige oder fehlerhafte Schreibweisen (Egypten, Kierkegard). Die Publikation enthält eine Einführung in das Werk von Bernhard Casper.
The STAR Collaboration reports the first observation of exclusive rho 0 photoproduction, AuAu-->AuAu rho 0, and rho 0 production accompanied by mutual nuclear Coulomb excitation, AuAu-->Au [star] Au [star] rho 0, in ultraperipheral heavy-ion collisions. The rho 0 have low transverse momenta, consistent with coherent coupling to both nuclei. The cross sections at sqrt[sNN]=130 GeV agree with theoretical predictions treating rho 0 production and Coulomb excitation as independent processes.
Inclusive transverse momentum distributions of charged hadrons within 0.2<pT<6.0 GeV/c have been measured over a broad range of centrality for Au+Au collisions at sqrt[sNN]=130 GeV. Hadron yields are suppressed at high pT in central collisions relative to peripheral collisions and to a nucleon-nucleon reference scaled for collision geometry. Peripheral collisions are not suppressed relative to the nucleon-nucleon reference. The suppression varies continuously at intermediate centralities. The results indicate significant nuclear medium effects on high-pT hadron production in heavy-ion collisions at high energy.
We report STAR results on the azimuthal anisotropy parameter v2 for strange particles K0S, Lambda , and Lambda -bar at midrapidity in Au+Au collisions at sqrt[sNN]=130 GeV at the Relativistic Heavy Ion Collider. The value of v2 as a function of transverse momentum, pt, of the produced particle and collision centrality is presented for both particles up to pt~3.0 GeV/c. A strong pt dependence in v2 is observed up to 2.0 GeV/c. The v2 measurement is compared with hydrodynamic model calculations. The physics implications of the pt integrated v2 magnitude as a function of particle mass are also discussed.
We report the first measurement of strange ( Lambda ) and antistrange ( Lambda -bar) baryon production from sqrt[sNN]=130 GeV Au+Au collisions at the Relativistic Heavy Ion Collider (RHIC). Rapidity density and transverse mass distributions at midrapidity are presented as a function of centrality. The yield of Lambda and Lambda -bar hyperons is found to be approximately proportional to the number of negative hadrons. The production of Lambda -bar hyperons relative to negative hadrons increases very rapidly with transverse momentum. The magnitude of the increase cannot be described by existing hadronic string fragmentation models alone.
We report the first observation of K*(892)0--> pi K in relativistic heavy ion collisions. The transverse momentum spectrum of (K*0+K*0)/2 from central Au+Au collisions at sqrt[sNN]=130 GeV is presented. The ratios of the K*0 yield derived from these data to the yields of negative hadrons, charged kaons, and phi mesons have been measured in central and minimum bias collisions and compared with model predictions and comparable e+e-, pp, and p-barp results. The data indicate no dramatic reduction of K*0 production in relativistic heavy ion collisions despite expected losses due to rescattering effects.
Elliptic flow holds much promise for studying the early-time thermalization attained in ultrarelativistic nuclear collisions. Flow measurements also provide a means of distinguishing between hydrodynamic models and calculations which approach the low density (dilute gas) limit. Among the effects that can complicate the interpretation of elliptic flow measurements are azimuthal correlations that are unrelated to the reaction plane (nonflow correlations). Using data for Au + Au collisions at sqrt[sNN]=130 GeV from the STAR time projection chamber, it is found that four-particle correlation analyses can reliably separate flow and nonflow correlation signals. The latter account for on average about 15% of the observed second-harmonic azimuthal correlation, with the largest relative contribution for the most peripheral and the most central collisions. The results are also corrected for the effect of flow variations within centrality bins. This effect is negligible for all but the most central bin, where the correction to the elliptic flow is about a factor of 2. A simple new method for two-particle flow analysis based on scalar products is described. An analysis based on the distribution of the magnitude of the flow vector is also described.
We present the first measurement of midrapidity vector meson phi production in Au+Au collisions at RHIC (sqrt[sNN]=130 GeV) from the STAR detector. For the 11% highest multiplicity collisions, the slope parameter from an exponential fit to the transverse mass distribution is T=379±50(stat)±45(syst) MeV, the yield dN/dy=5.73±0.37(stat)±0.69(syst) per event, and the ratio N phi /Nh- is found to be 0.021±0.001(stat)±0.004(syst). The measured ratio N phi /Nh- and T for the phi meson at midrapidity do not change for the selected multiplicity bins.
Entwurf und Realisierung von Sicherheitsmechanismen für eine Infrastruktur für digitale Bibliotheken
(2002)
Angesichts der überragenden Bedeutung der modernen Kommunikationstechnik in allen Lebensbereichen kommt auch den digitalen Bibliotheken ein wachsendes Gewicht zu. Dabei spielen nicht nur die platzsparende Speicherung, sondern auch die schnelle Datenübermittlung und der unmittelbare Zugang zu den Dokumenten eine wichtige Rolle. Da eine solche Bibliothek über ein offenes Netz betrieben wird, erhalten in diesem Zusammenhang Sicherheitsaspekte ein essentielles Gewicht. Die vorliegende Diplomarbeit geht diesen Fragen nach und zeigt Wege auf, wie die bestehenden Sicherheitsrisiken minimiert werden können. Ziel dieser Arbeit war daher der Entwurf und die Realisierung von Sicherheitsmechanismen für eine Infrastruktur für digitale Bibliotheken. Dabei wurde speziell auf die INDIGO-Infrastruktur eingegangen; sie stellt eine verteilte Infrastruktur für digitale Bibliotheken dar. Der erste Teil dieser Diplomarbeit enthält eine Einführung in die Grundlagen der INDIGO-Infrastruktur und der Sicherheit. In Kapitel [*] wurden die INDIGO-Infrastruktur und ihre Komponenten erläutert; in Kapitel [*] folgte anschließend die Beschreibung einiger kryptographischer Verfahren und Sicherheitsprotokolle. Im zweiten Teil dieser Arbeit wurden Sicherheitsmechanismen für die INDIGO-Infrastruktur entworfen. In dieser Entwurfsphase erfolgte zunächst in Kapitel [*] die Sicherheitsanalyse der Infrastruktur. Basierend auf dieser Analyse wurden in Kapitel [*] Sicherheitskonzepte für diese Infrastruktur entwickelt. Während der gesamten Entwurfsphase standen die Sicherheitsanforderungen Vertraulichkeit, Authentizität, Integrität, Verbindlichkeit und die Autorität stets im Mittelpunkt des Interesses. Im dritten und letzten Teil der Arbeit wurden die Sicherheitsmechanismen für die INDIGO-Infrastruktur realisiert. Dabei wurden die in Abschnitt [*] beschriebenen Sicherheitsrichtlinien der Infrastruktur implementiert. Die Beschreibung der Implementierung erfolgte in Kapitel [*]. Die wichtigsten Modifikationen des INDIGO-Servers betrafen folgende Punkte: * Sicherung und Aufbau der verbindlichen Kommunikationskanäle durch den Einsatz von SSL- bzw. TLS-basierten Server-zu-Server Verfahren. * Realisierung von Sicherheitsmechanismen zur Verifikation der digital signierten Dokumente und Dokumentmethoden. * Erweiterung des INDIGO-Servers um feingranuliert konfigurierbare Zugriffsmechanismen, die verteilt auf drei unterschiedliche Ebenen den Zugriff der Anwender (bzw. Dokumentmethoden) auf seine Ressourcen kontrollieren. Neben den Modifikationen des INDIGO-Servers wurden zwei neue Clients zur Kommunikation mit dem INDIGO-Server und eine Anwendung zur Erzeugung der digitalen Signatur der Dokumente entwickelt. Ferner wurden einige neue Metadokumente und Dokumentmethoden erstellt, um die neuen Eigenschaften der Infrastruktur zu demonstrieren. Bei der Realisierung der Sicherheitsmechanismen wurde größter Wert auf die Abwärtskompatibilität, Konfigurierbarkeit und Modularität gelegt. Die Abwärtskompatibilität zur ursprünglichen Infrastruktur wird beispielsweise erreicht, indem die bereits existierenden Metadokumente und Dokumentmethoden bei dem modifizierten Server auch verwendet werden können. Diese müssen - falls nötig - minimal um die digitale Signatur der Autoren ergänzt werden. Das Sicherheitsverhalten des INDIGO-Servers läßt sich beliebig über seine Konfigurationsdatei ändern (Konfigurierbarkeit). Alle wichtigen Sicherheitsmechanismen des modifizierten Servers lassen sich den Wünschen des Betreibers anpassen. Dadurch ist sichergestellt, daß jeder Betreiber den Server seinen jeweiligen Sicherheitsbedürfnissen entsprechend betreiben kann. Der Betreiber kann beispielsweise über die Einstellung seiner Konfigurationsdatei bestimmen, ob die Clients sich bei der Kommunikation mit seinem Server identifizieren müssen. Zudem kann er beispielsweise festlegen, ob die Dokumentmethoden, die keine korrekte digitale Signatur besitzen, ausgeführt werden dürfen oder nicht. Die Konfigurierbarkeit des Servers hinsichtlich der Sicherheitsmechanismen geht sogar so weit, daß man den Server im Normalmodus betreiben kann; in diesem Modus sind alle Sicherheitsmechanismen des Servers ausgeschaltet. Die Modularität hinsichlich der Sicherheitsmechanismen wurde bei der Implementierung durch die Verteilung dieser Mechanismen auf die unterschiedlichen und eigenständigen Klassen erzielt, die jeweils eine wohldefinierte Eigenschaft und Aufgabe besitzen. Diese Vorgehensweise führt dazu, daß bei einer Weiterentwicklung des Servers um neue Sicherheitsdienste nur die wenigen betroffenen Klassen modifiziert werden müssen, ohne daß der gesamte Server davon betroffen ist. So kann der INDIGO-Server beispielsweise um den Authentisierungsdienst Kerberos [Stei88] erweitert werden, in dem nur die entsprechende Authentisierungsklasse des Servers (IndigoAuthorization-Klasse) ergänzt wird.
In dieser Arbeit werden grundlegende Untersuchungen zum Verständnis der dynamischen Wechselwirkungsmechanismen atomarer Projektile mit Festkörperoberflächen vorgestellt, die zur Emission von Sekundärionen führen. Der zentrale Ansatzpunkt ist dabei die Vermessung der Dynamik über die geschwindigkeits- und winkeldifferentielle Verteilung der emittierten Sekundärionen. Dazu wurde ein neuartiges Spektrometer entwickelt, in dem jedes in einem homogenen elektrischen Feld abgelenkte Sekundärion durch seine Flugzeit (TOF) und den Auftreffort auf einen 2-dimensionalen (XY) ortsempfindlichen Detektor charakterisiert wird. Das Prinzip basiert auf dem in Gastargetexperimenten erfolgreich eingesetzten Frankfurter Meßsystem COLTRIMS (COLd Target Recoil Ion Momentum Spectroscopy). Dieses System wurde weiterentwickelt und erstmalig in Frankfurt in einem Festkörperexperiment zur geschwindigkeits- und winkeldifferentiellen Spektrometrie von Sekundärionen angewendet. Ein zusätzliches Merkmal gegenüber herkömmlichen Spektrometern ist die Möglichkeit der einfachen Variation des Einfallswinkels 0p vom Projektil zum Target. Die korrekte Transformation der gemessenen Daten in eine 3-dimensionale Anfangsgeschwindigkeitsverteilung bedingt eine möglichst präzise Eichung des Spektrometers. Dazu wurde die in diesem Zusammenhang neuartige Methode des Strahlprofilmonitors entwickelt und eingesetzt. Durch die Wechselwirkung des Projektils mit einem nicht lokalisierten Gastarget erzeugt es auf seinem Weg durch das Spektrometer eine Spur aus Ionen. Die Gasionen befinden sich im Verhältnis zu den von dem Festkörper emittierten Sekundärionen nahezu in Ruhe. Daher kann über die Analyse der Projektilspur auf die zur Eichung notwendigen, aber im Experiment nicht direkt zugänglichen Parameter, wie Flugzeit (T0) und Auftreffort (x0/y0) für Teilchen mit der Geschwindigkeit v0z = v0x = v0y = 0, geschlossen werden. Die systematische Variation von Projektil- (He0/N0/Ar0, Ep = 0.2 - 2.2 MeV, 0p = 37°-78° relativ zur Oberflächennormalen) und Targeteigenschaften (Au/C/LiF/Al) erlaubt ein gezieltes Studium der dynamischen Wechselwirkung zwischen Projektilen und Festkörperoberflächen. Das untersuchte H+-Sekundärion entstammt einer Festkörperoberfläche bedeckenden quasistabilen Kontaminationsschicht, die im wesentlichen aus den Adsorbaten H2, H2O, CxHy besteht. Die gemessenen H+-Geschwindigkeitsverteilungen besitzen ein Maximum etwa bei v0 ungefähr gleich 25-35 km/s mit Ausläufern (abhängig von 0p) bis hin zu 240 km/s. Bei sinkender Projektilgeschwindigkeit zeigt die Verteilung der emittierten H+-Sekundärionen bei hohen Emissionsgeschwindigkeiten (v0 > 60 km/s) eine stark ausgeprägte Asymmetrie in der von dem einfallenden Projektil und der Oberflächennormalen definierten Ebene. Ionen werden mit einer hohen Geschwindigkeit (bis zu 140 km/s bei 0p = 45°) unter einem Winkel von ca. 90° zum Projektil, unabhängig von 0p, emittiert. Diese Asymmetrie wird durch eine binäre Kollision des Projektils mit dem Wasserstoff verursacht. Die Variation der Projektilgeschwindigkeit ist korreliert mit der deponierten Energie des Projektils im Festkörper. Daher kann in der Dynamik der Sekundärionen deutlich der Beitrag des nuklearen Anteils an der totalen Energiedeposition aufgezeigt und getrennt werden. Bei Emissionsgeschwindigkeiten v0 < 60 km/s zeigt sich eine starke Abhängigkeit von den Targeteigenschaften. Bei konstantem Einfallswinkel beobachten wir eine Verschiebung der Maxima von v0 max ungefähr gleich 26.5 km/s bei Au-, über 27.9 km/s bei Al- bis hin zu 32.5 km/s bei LiF-Targets. Es zeigt sich keine meßbare Abhängigkeit vom Einfallswinkel des Projektils bei Auund C-Targets, dagegen eine deutliche Verschiebung der Maxima hin zu größeren Geschwindigkeiten bei dem Al- (v0 max ungefähr gleich 27.5 km/s - 30 km/s) und dem LiF-Target (v0 max ungefähr gleich 32.5 km/s - 35.5 km/s) mit einer Vergrößerung von 0p. Ionen mit v0 < 30 km/s werden zum Großteil rückwärts in Richtung des einfallenden Projektils emittiert. Au und C sind gute, LiF und das mit einer Al2O3-Schicht überzogene Al dagegen schlechte elektrische Oberflächenleiter. Die Verschiebung der Verteilungen bei einem schlechten elektrischen Leiter ist ein Hinweis auf den zeitabhängigen Zerfall des Projektilspurpotentials im Festkörper. Die Zunahme der Emissionsgeschwindigkeit v0 bei Vergrößerung von 0p ist in der Vergrößerung der effektiven Targetdicke begründet und ein Hinweis auf eine targetdickenabhängige Neutralisationszeit des geladenen Spurkerns durch Elektronen des Substrats. Korrelationen im Sekundärionenemissionsprozeß bezüglich Impuls- und Energieerhaltung zwischen einem emittierten H+-Sekundärion und einem möglichen zweiten Sekundärion wurden nicht beobachtet. Über die Eichung hinaus eröffnen sich zusätzlich noch einige vielversprechende Anwendungsmöglichkeiten des Strahlprofilmonitors. Zum einen ermöglicht er a) in der Gasmassenspektrometrie eine exakte Korrektur der Ionenflugzeit unabhängig vom Ort der Ionisation und zum anderen bildet er b) eine innovative Methode zur Kartographie lokaler elektrischer Felder und c) ferner einen alternativen Zugang zur Vermessung von Projektilstreuwinkeln. Die Verwendung eines ortsempfindlichen Detektors in der „kinematischen“ Materialanalyse verbindet simultan gute Tiefenprofilauflösung mit dem Nachweis eines großen Raumwinkels zugunsten einer besseren Statistik. Die Kenntnis der Emissionscharakteristik bewährt sich zudem in der Massenanalyse in der Unterscheidung von Ionen fast identischer Massen.
The focus of this article is the analysis of the inflation risk of European real estate securities. Following both a causal and a final understanding of risk, the analysis is twofold. First, to examine the causal influence of inflation on short- and long-term asset returns, different regression approaches are employed based on the methodology of Fama and Schwert (1977). Hedging capacities against expected inflation are found only for German open-end funds. Secondly, different shortfall risk measures are used to study whether an investment in European real estate securities protects against a negative real return at the end of a given investment period.
Who knows what when? : The information content of pre-IPO market prices : [Version March/June 2002]
(2002)
To resolve the IPO underpricing puzzle it is essential to analyze who knows what when during the issuing process. In Germany, broker-dealers make a market in IPOs during the subscription period. We examine these pre-issue prices and find that they are highly informative. They are closer to the first price subsequently established on the exchange than both the midpoint of the bookbuilding range and the offer price. The pre-issue prices explain a large part of the underpricing left unexplained by other variables. The results imply that information asymmetries are much lower than the observed variance of underpricing suggests.
We propose a new framework for modelling time dependence in duration processes on financial markets. The well known autoregressive conditional duration (ACD) approach introduced by Engle and Russell (1998) will be extended in a way that allows the conditional expectation of the duration process to depend on an unobservable stochastic process, which is modelled via a Markov chain. The Markov switching ACD model (MSACD) is a very flexible tool for description and forecasting of financial duration processes. In addition the introduction of an unobservable, discrete valued regime variable can be justified in the light of recent market microstructure theories. In an empirical application we show, that the MSACD approach is able to capture several specific characteristics of inter trade durations while alternative ACD models fail. Furthermore, we use the MSACD to test implications of a sequential trade model.
Executive Stock Option Programs (SOPs) have become the dominant compensation instrument for top-management in recent years. The incentive effects of an SOP both with respect to corporate investment and financing decisions critically depend on the design of the SOP. A specific problem in designing SOPs concerns dividend protection. Usually, SOPs are not dividend protected, i.e. any dividend payout decreases the value of a manager’s options. Empirical evidence shows that this results in a significant decrease in the level of corporate dividends and, at the same time, into an increase in share repurchases. Yet, few suggestions have been made on how to account for dividends in SOPs. This paper applies arguments from principal-agent-theory and from the theory of finance to analyze different forms of dividend protection, and to address the relevance of dividend protection in SOPs. Finally, the paper relates the theoretical analysis to empirical work on the link between share repurchases and SOPs.
Untersuchungsgegenstand ist der empirische Gehalt der ökonomischen Theorie eines Hedgings auf Unternehmensebene. In den USA wurde die Hedging-Theorie in einer Reihe von empirischen Studien aufgegriffen. Die Befunde sind zumeist konsistent mit dem Erklärungsansatz von Froot/Scharfstein/Stein (1993), wonach eine Verringerung der Cashflow-Volatilität – unter der Annahme steigender Außenfinanzierungskosten – zu einer Reduzierung von Unterinvestitionskosten führt. Bei deutschen Unternehmen besitzt dieser Ansatz bemerkenswerterweise jedoch nur einen geringen Erklärungsgehalt. Die Ergebnisunterschiede können auf unterschiedliche Kapitalmarktverhältnisse zurückgeführt werden: Die unterstellten steigenden Kosten der Außenfinanzierung besitzen für deutsche Unternehmen aufgrund der Dominanz des Bezugsrechtsverfahrens sowie der Rolle der Hausbank als Mechanismus zur Überwindung von Informationsproblemen eine vergleichsweise geringere Bedeutung. Die Managerinteressen erweisen sich bei deutschen Unternehmen als eine wesentliche Hedging-Determinante. Zwischen der Höhe des gebundenen Managervermögens und der Hedging-Wahrscheinlichkeit besteht entsprechend der Hedging-Theorie ein signifikanter positiver Zusammenhang. Entgegen den amerikanischen Befunden kann jedoch eine disziplinierende Wirkung von Großaktionären auf die Hedging-Entscheidung nicht beobachtet werden. Zur Berücksichtigung der spezifischen deutschen Kapitalmarktverhältnisse wird der Einfluss von Bankenbeteiligungen und Familienunternehmen auf die Hedging-Entscheidung untersucht. Ein Bankeneinfluss auf die Derivateeinsatz-Entscheidung kann jedoch nicht festgestellt werden. Entgegen Diversifikations- und Kapitalmarktüberlegungen besteht bei Familienunternehmen interessanterweise eine signifikant geringere Hedging-Wahrscheinlichkeit.
Frankfurt am Main bezeichnet sich gern als multikulturelle Stadt. Etwa ein Drittel der Bevölkerung stammt nicht aus Deutschland, genauer gesagt leben ca. 180.000 Menschen aus 181 Nationen in der Mainmetropole. Es handelt sich um Menschen, die aus den unterschiedlichsten Gründen wie Arbeit, Studium, Heirat oder auch durch Verfolgung und Flucht zufällig oder beabsichtigt in Frankfurt leben. Es sind Männer und Frauen aus Europa, Asien und Afrika, die oft seit langem hier sind, es sind aber auch Kinder und Jugendliche, die hier geboren und aufgewachsen sind. Zu den Frankfurtern nichtdeutscher Herkunft zählen auch zwischen 3000 und 4000 EritreerInnen. Die meisten dieser Menschen verließen in den frühen 1980er Jahren als Flüchtlinge ihr Land. Sie flohen vor den Auswirkungen eines fast dreißig Jahre andauernden Krieges, in dem Eritrea um die Unabhängigkeit von Äthiopien kämpfte. Manche waren aktiv beteiligt, einige erlebten Folter und Gefängnis, viele hatten Angst vor diesen Repressalien. Ein großer Teil wurde aber auch erst hier geboren. Eritrea, ein relativ kleines Land am Horn von Afrika, ist heute eine unabhängige Nation, doch die Probleme dauern an. Die wirtschaftliche und soziale Lage, vor allem jedoch der immer wieder aufbrechende Konflikt mit dem mächtigen Nachbar Äthiopien hält viele der eritreischen Flüchtlinge ab, in ihr Heimatland zurückzukehren. Doch dies ist nur ein Aspekt des eritreischen Lebens in Frankfurt. Abgesehen von kleineren Zeitungsnotizen über stattfindende (meist kirchliche) Feste oder Neueröffnungen eritreischer Restaurants weiß man wenig über diese Menschen; wie sie hier leben, mit welchen Problemen sie umzugehen haben und was sie bewegt. Analog zur Informationslage über die Heimat dieser Menschen erfährt nur derjenige etwas, der ein besonderes Interesse zeigt. Selbst wenn mehrere Hundert eritreische Flüchtlinge auf die Straße gehen, um für Frieden in ihrem Land zu demonstrieren, findet dies kaum ein Echo in der deutschen Berichterstattung. Unter den afrikanischen Ländern steht die eritreische Exilgemeinschaft hinter der marokkanischen an zweiter Stelle und gehört somit zu den zahlenmäßig größten außereuropäischen Gruppen der Stadt. Doch trotz der relativ hohen Anzahl handelt es sich um eine unauffällige Gemeinschaft, die selten das Interesse der Öffentlichkeit oder der Wissenschaft findet. Andere Migrantengruppen wie Türken, Jugoslawen oder Marokkaner, die seit Jahrzehnten zum multikulturellen Stadtbild Frankfurts gehören, scheinen nicht nur wegen ihrer höheren Anzahl präsenter, sie wecken auch das Interesse der Wissenschaft. Die Untersuchungen von eritreischen Flüchtlingen beschränken sich dagegen bisher hauptsächlich auf ihre Eingliederung in die direkten Nachbarstaaten Eritreas. Die Frage nach Segregation, Akkulturation oder Integration wurde hier in zahlreichen Publikationen gestellt, sowie auch jene zum Themenbereich Ethnizität und Identität am Horn von Afrika. Die eritreischen Flüchtlinge in Deutschland blieben weitgehend unerforscht. Nach meiner Kenntnis existiert keine ausführliche Publikation zu den Auswirkungen im deutschen Exil. Wie sich z.B. der Befreiungskrieg auf das Identitätsbewußtsein der Exileritreer, auf ihre Integration oder auch auf das Verhältnis zu den in Deutschland lebenden Äthiopiern auswirkt, dies sind Fragen, die bisher unbeantwortet blieben. Eine ausführlichere Darstellung zum Leben der eritreischen Gemeinschaft in der BRD nennt zwar einen engen Zusammenhalt der Gruppe und ein ausgeprägtes Identitätsbewußtsein, doch sie äußert sich nicht zu Ursachen, bzw. Folgen (WUS, 1991). Die vorhandenen Informationen zur eritreischen Exilgemeinschaft in Deutschland beschränken sich meist auf offizielle Daten (Daffa, 1995; Schmalz-Jacobsen/Hansen, 1997). Auch Untersuchungen zu eritreischen Flüchtlingsfrauen und –mädchen in Frankfurt/Main geben wenig Aufschluß; es handelt sich um kurze Abhandlungen der Lebenssituation und eine Darstellung der Probleme als Flüchtling im Allgemeinen (ISD, 1986a; ISD, 1986b). Bereits vor dieser Untersuchung erlebte ich durch meine Bekanntschaft mit einigen jüngeren Eritreern in Frankfurt, daß die Exilanten trotz z.T. verschiedener Erfahrungshintergründe eine selbstbewußte, starke und geschlossene Gemeinschaft bilden, in der Loyalität und Solidarität eine große Rolle spielen. Damit einher geht das offen geäußerte und starke Geschichts- und Identitätsbewußtsein der Menschen als Angehörige der Nation Eritrea, das meinen ethnologischen Ambitionen entgegenkam, sie jedoch auch stark beeinflußte.
For the Neuer Markt year 2001 is not considered as one of its best, compared to its prior performance. Investors who once piled into the Neuer Markt have now become wary of the exchange, which was launched in 1997 as Europe’s leading growth market and answer to the U.S.‘s Nasdaq Stock Market. The Neuer Markt’s reputation has been marred by the misleading information policy from several Neuer Markt companies, publishing false annual and quarterly data. Some of these companies are responsible for having misinformed investors of their pending bankruptcies. Under these circumstances, it is time to find an explanation for the dramatic loss of credibility in Neuer Markt enterprises. Finding an answer, two aspects come under consideration: • What type of information (annual versus quarterly reports) was available for investors and • of what quality were these provided data. Interim reports can be seen as important instrument in the reporting system to inform all kinds of investors. For this reason we examine the quality of Neuer Markt quarterly reports by concentrating on the disclosure level of 52 Neuer Markt companies‘ reports for the third quarter 1999 and 2000. To enable comparison we establish four disclosure indexes that measure the report’s compliance with the Neuer Markt Rules and Regulations as well as with IAS and US GAAP interim reporting standards. The results demonstrate that the level of disclosure has increased over time. Then we aim to find typical attributes of Neuer Markt enterprises that provide high or low level of accounting information in their quarterly reports. Nevertheless the study also shows that there is not any correlation between market capitalization and the quality of interim reports. However, it can be suggested that an additional enforcement mechanism could improve quality and lure investors back. A step towards this aim is the standardization project of quarterly reports of Deutsche Boerse AG.
Portfolio choice and estimation risk : a comparison of Bayesian approaches to resampled efficiency
(2002)
Estimation risk is known to have a huge impact on mean/variance (MV) optimized portfolios, which is one of the primary reasons to make standard Markowitz optimization unfeasible in practice. Several approaches to incorporate estimation risk into portfolio selection are suggested in the earlier literature. These papers regularly discuss heuristic approaches (e.g., placing restrictions on portfolio weights) and Bayesian estimators. Among the Bayesian class of estimators, we will focus in this paper on the Bayes/Stein estimator developed by Jorion (1985, 1986), which is probably the most popular estimator. We will show that optimal portfolios based on the Bayes/Stein estimator correspond to portfolios on the original mean-variance efficient frontier with a higher risk aversion. We quantify this increase in risk aversion. Furthermore, we review a relatively new approach introduced by Michaud (1998), resampling efficiency. Michaud argues that the limitations of MV efficiency in practice generally derive from a lack of statistical understanding of MV optimization. He advocates a statistical view of MV optimization that leads to new procedures that can reduce estimation risk. Resampling efficiency has been contrasted to standard Markowitz portfolios until now, but not to other approaches which explicitly incorporate estimation risk. This paper attempts to fill this gap. Optimal portfolios based on the Bayes/Stein estimator and resampling efficiency are compared in an empirical out-of-sample study in terms of their Sharpe ratio and in terms of stochastic dominance.
Eine Beteiligung des Managements an Gewinngrößen spielt eine wichtige Rolle bei der Ausrichtung von Managemententscheidungen auf die Ziele der Unternehmenseigentümer. Dieser Beitrag zeigt auf, unter welchen Gewinnermittlungsregeln ein Agent zu optimalen Investitionsentscheidungen motiviert wird, wenn er an den Residualgewinnen beteiligt wird. Dieser Beitrag beschäftigt sich insbesondere mit der Frage, ob zum Zwecke einer optimalen Investitionssteuerung, Fertigerzeugnisse zu Vollkosten oder zu Teilkosten bewertet werden sollen. Vor diesem Hintergrund werden ebenfalls verschiedene Wertansätze für Forderungen auf ihre Anreizwirkungen untersucht.
Recent changes in accounting regulation for financial instruments (SFAS 133, IAS 39) have been heavily criticized by representatives from the banking industry. They argue for retaining a historical cost based "mixed model" where accounting for financial instruments depends on their designation to either trading or nontrading activities. In order to demonstrate the impact of different accounting models for financial instruments on the financial statements of banks, we develop a bank simulation model capturing the essential characteristics of a modern universal bank with investment banking and commercial banking activities. In our simulations we look at different scenarios with periods of increasing/decreasing interest rates using historical data and with different banking strategies (fully hedged; partially hedged). The financial statements of our model bank are prepared under different accounting rules ("Old" IAS before implementation of IAS 39; current IAS) with and without hedge accounting as offered by the respective sets of rules. The paper identifies critical issues of applying the different accounting rules for financial instruments to the activities of a universal bank. It demonstrates important shortcomings of the "Old" IAS rules (before IAS 39), and of the current IAS rules. Under the current IAS rules the results of a fully hedged bank may have to show volatility in income statements due to changes in market interest rates. Accounting results of a partially hedged bank in the same scenario may be less affected even though there are economic gains or losses.
Rating agencies state that they take a rating action only when it is unlikely to be reversed shortly afterwards. Based on a formal representation of the rating process, I show that such a policy provides a good explanation for the empirical evidence: Rating changes occur relatively seldom, exhibit serial dependence, and lag changes in the issuers’ default risk. In terms of informational losses, avoiding rating reversals can be more harmful than monitoring credit quality only twice per year.
Substantial research attention has been devoted to the pension accumulation process, whereby employees and those advising them work to accumulate funds for retirement. Until recently, less analysis has been devoted to the pension decumulation process – the process by which retirees finance their consumption during retirement. This gap has recently begun to be filled by an active group of researchers examining key aspects of the pension payout market. One of the areas of most interesting investigation has been in the area of annuities, which are financial products intended to cover the risk of retirees outliving their assets. This paper reviews and extends recent research examining the role of annuities in helping finance retirement consumption. We also examine key market and regulatory factors.
This paper examines the provision of managerial investment incentives by an accounting based incentive scheme in a multiperiod agency setting in which an impatient manager has to choose between mutually exclusive investment projects. We study the properties of accounting rules that motivate an impatient manager to exert unobservable effort and to make optimal investment decisions. In this analysis, a realized cash flow constitutes a noisy signal that contains information about the unknown profitability of the investment project. By observing these signals a principal is able to revise his prior beliefs about the agent´s investment decision. The revision of the principal´s prior beliefs leads to a trade off between the provision of efficient investment incentives and intertemporalsharing of output.
The properties of two measures of charge fluctuations D-tilde and DeltaPhiq are discussed within several toy models of nuclear collisions. In particular their dependence on mean particle multiplicity, multiplicity fluctuations, and net electric charge are studied. It is shown that the measure DeltaPhiq is less sensitive to these trivial biasing effects than the originally proposed measure D-tilde. Furthermore the influence of resonance decay kinematics is analyzed and it is shown that it is likely to shadow a possible reduction of fluctuations due to QGP creation.
Dt. Fassung: Rechtsentfremdungen: Zum gesellschaftlichen Mehrwert des zwölften Kamels, Zeitschrift für Rechtssoziologie 21, 2000, 189-215 und in Gunther Teubner (Hg.) Die Rückgabe des zwölften Kamels: Niklas Luhmann in der Diskussion über Gerechtigkeit. Lucius & Lucius, Stuttgart 2000, 189-215. Englische Fassung: Alienating Justice: On the Social Surplus Value of the Twelfth Camel. In: David Nelken and Jirí Pribán (Hg.) Law's New Boundaries: Consequences of Legal Autopoiesis. Ashgate, London 2001, 21-44. Französische Fassung: Les multiples aliénations du droit : Sur la plus-value sociale du douzième chameau. Droit et Société 47, 2001, 75-100. Polnische Fassung: Sprawiedliwosc alienujaca : O dodatkowej wartosci dwunastego wielblada. Ius et Lex 1, 2002, 109-132. Italienische Fassung: Le molteplici alienazioni del diritto : Sul plusvalore sociale del dodicesimo camello. In: Annamaria Rufino und Gunther Teubner, Il diritto possibile: Funzioni e prospettive del medium giuridico. Guerini, Milano, 2005, 93-130.
The transverse mass spectra of Omega, J/psi and psi' in Pb+Pb collisions at 158 AGeV are studied within a hydrodynamical model of the quark gluon plasma expansion and hadronization. The model reproduces the existing data with the common hadronization parameters: temperature T=T_H = 170 MeV and average collective transverse velocity v_T = 0.2.
Results of the production of Xi and Xi-bar hyperons in central Pb+Pb interactions at 158 GeV/c per nucleon are presented. This analysis utilises a global reconstruction procedure, which allows a measurement of 4pi integrated yields to be made for the first time. Inverse slope paramters, which are determined from an exponential fit to the transverse mass spectra, are shown. Central rapidity densities are found to be 1.49 +- 0.08 and 0.33 +- 0.04 per event per unit of rapidity for Xi and Xi-bar respectively. Yields integrated to full phase space are 4.12 +- 0.02 and 0.77 +- 0.04 for Xi and Xi-bar. The ratio of Xi-bar/Xi at mid-rapidity is 0.22 +- 0.03.
Measurements of charged pion and kaon production in central Pb+Pb collisions at 40, 80 and 158 AGeV are presented. These are compared with data at lower and higher energies as well as with results from p+p interactions. The mean pion multiplicity per wounded nucleon increases approximately linearly with s_NN^1/4 with a change of slope starting in the region 15-40 AGeV. The change from pion suppression with respect to p+p interactions, as observed at low collision energies, to pion enhancement at high energies occurs at about 40 AGeV. A non-monotonic energy dependence of the ratio of K^+ to pi^+ yields is observed, with a maximum close to 40 AGeV and an indication of a nearly constant value at higher energies.The measured dependences may be related to an increase of the entropy production and a decrease of the strangeness to entropy ratio in central Pb+Pb collisions in the low SPS energy range, which is consistent with the hypothesis that a transient state of deconfined matter is created above these energies. Other interpretations of the data are also discussed.
The transverse mass spectra of J/psi and psi' mesons and Omega hyperons produced in central Au+Au collisions at RHIC energies are discussed within a statistical model used successfully for the interpretation of the SPS results. The comparison of the presented model with the future RHIC data should serve as a further crucial test of the hypothesis of statistical production of charmonia at hadronization. Finally, in case of validity, the approach should allow to estimate the mean transverse flow velocity at the quark gluon plasma hadronization.
Experiment NA49 at the Cern SPS uses a large acceptance detector for a systematic study of particle yields and correlations in nucleus-nucleus, nucleon-nucleus and nucleon-nucleon collisions. Preliminary results for Pb+Pb collisions at 40, 80 and 158 A*GeV beam energy are shown and compared to measurements at lower and higher energies.
Strange particle production in A+A interactions at 158 AGeV is studied by the CERN experiment NA49 as a function of system size and collision geometry. Yields of charged kaons, phi and Lambda are measured and compared to those of pions in central C+C, Si+Si and centrality-selected Pb+Pb reactions. An overall increase of relative strangeness production with the size of the system is observed which does not scale with the number of participants. Arguing that rescattering of secondaries plays a minor role in small systems the observed strangeness enhancement can be related to the space-time density of the primary nucleon-nucleon collisions.
The large acceptance and high momentum resolution as well as the significant particle identification capabilities of the NA49 experiment at the CERN SPS allow for a broad study of fluctuations and correlations in hadronic interactions. In the first part recent results on event-by-event charge and p_t fluctuations are presented. Charge fluctuations in central Pb+Pb reactions are investigated at three different beam energies (40, 80, and 158 AGeV), while for the p_t fluctuations the focus is put on the system size dependence at 158 AGeV. In the second part recent results on Bose Einstein correlations of h-h- pairs in minimum bias Pb+Pb reactions at 40 and 158 AGeV, as well as of K+K+ and K-K- pairs in central Pb+Pb collisions at 158 AGeV are shown. Additionally, other types of two particle correlations, namely pi p, Lambda p, and Lambda Lambda correlations, have been measured by the NA49 experiment. Finally, results on the energy and system size dependence of deuteron coalescence are discussed.
Rapidity distributions for $\Lambda$ and $\bar{\Lambda}$ hyperons in central Pb-Pb collisions at 40, 80 and 158 A$\cdot$GeV and for ${\rm K}_{s}^{0}$ mesons at 158 A$\cdot$GeV are presented. The lambda multiplicities are studied as a function of collision energy together with AGS and RHIC measurements and compared to model predictions. A different energy dependence of the $\Lambda/\pi$ and $\bar{\Lambda}/\pi$ is observed. The $\bar{\Lambda}/\Lambda$ ratio shows a steep increase with collision energy. Evidence for a $\bar{\Lambda}/\bar{\rm p}$ ratio greater than 1 is found at 40 A$\cdot$GeV.
Bose-Einstein correlations of charged kaons were measured near mid-rapidity in central Pb+Pb collisions at 158 A GeV by the NA49 experiment at the CERN SPS. Source radii were extracted using the Yano-Koonin-Podgoretsky and Bertsch-Pratt parameterizations. The results are compared to published pion data. The measured m_perp dependence for kaons and pions is consistent with collective transverse expansion of the source and a freeze-out time of about 9.5 fm.
s.a.: Das Recht hybrider Netzwerke. Zeitschrift für das gesamte Handelsrecht und Wirtschaftsrecht 165, 2001, 550-575.. Italienische Fassung: Diritti ibridi: la costituzionalizzazione delle reti private di governance. In: Gunther Teubner, Costituzionalismo societario. Armando, Roma 2004 (im Erscheinen).
By order of 29 November 1999 the Federal Court of Justice (Bundesgerichtshof) referred to the European Court of Justice (ECJ) for a preliminary ruling under Article 234 EC two questions regarding the interpretation of the "doorstep-selling directive", and the "consumer credit directive", which arose in the course of proceedings involving Mr and Mrs Heininger, who took out from the Bayerische Hypo- und Vereinsbank AG bank a loan to purchase a flat, secured by a charge on the property (Grundschuld). Five years later they sought to cancel the credit agreement, maintaining that an estate agent had called uninvited at their home and induced them to purchase the flat in question and - at the same time acting on a self-employed basis as agent for the bank - to enter into the loan agreement, without informing them of their right of cancellation. Article 1 para. 1 of the doorstep-selling directive provides that it applies to contracts under which a trader supplies goods or services to a consumer and which are concluded during a visit by a trader to the consumer's home where the visit does not take place at the express request of the consumer'. Article 3 para. 2 a) of that directive provides that the directive shall not apply to contracts for the construction, sale and rental of immovable property or contracts concerning other rights relating to immovable property. Article 4 of the directive provides that traders shall be required to give consumers written notice of their right of cancellation. Article 5 provides that the consumer shall have the right to cancel the contract within seven days from receipt by the consumer of the notice. Article 2 of the consumer credit directive provides that it shall not apply to credit agreements intended primarily for the purpose of acquiring or retaining property rights in land or in an existing or projected building, and that Article 1 a) and Articles 4 to 12 of the directive shall not apply to credit agreements, secured by mortgage on immovable property. The German legislation transposing the doorstep-selling directive (the "HWiG") provides for a right of cancellation by the consumer within a period of one week, if a transaction is entered into away from the trader's business premises. The cooling-off period does not start to run until the customer receives a notice in writing containing information on this right and if that notice is not given, the right of cancellation will not lapse until one month after both parties have performed their obligations under the agreement in full. Section 5 para. 2 of the HwiG provides that where the transaction also falls within the scope of the legislation transposing the consumer credit directive (the "VerbrKrG"), only the provisions of the latter are to apply. Section 3 para. 2 of the VerbrKrG, in setting out the exceptions to the scope of that law, provides that inter alia Section 7 (right of cancellation) shall not apply to credit agreements in which credit is subject to the giving of security by way of a charge on immovable property, and is granted on usual terms for credits secured by a charge on immovable property and the intermediate financing of the same. Given this legal framework it is obvious that the Heiningers could not cancel the credit agreement according to the VerbrKrG. Although the agreement constitutes a consumer credit under section 1 VerbrKrG, the right of revocation is excluded by section 3 para. 2 VerbrKrG, the exclusion of which is backed by the consumer credit directive. Although the credit agreement was entered into away from the banks business premises, they as well could not cancel it under the HWiG since this law is not applicable to consumer credit agreements. Thus, the claim of the Heiningers was denied by German courts until the Federal Court of Justice raised the question, if the subsidiarity clause in section 5 para. 2 of the HWiG constitutes a contradiction to the provisions of the door step selling directive.
Der Titel der Tagung, deren Beiträge dieser Band dokumentiert, ist Programm: Jenseits der postmodernen Abschiedsstimmung, in die manche Reflexion über die Zukunft des Staates je nach theoretischer und politischer Orientierung melancholisch oder mit Schadenfreude verfällt, setzt er voraus, was eigentlich selbstverständlich sein sollte: dass es auch in Zukunft den Staat weder theoretisch noch praktisch zu verabschieden gilt. Er versucht deutlich zu machen, dass es im Jahre 1 eines neuen Jahrtausends in der Berliner Republik nicht mehr um eine Fortsetzung der allgemeinen Verunsicherung der achtziger und neunziger Jahre gehen kann. Es reicht nicht theoretisch (und manchmal – so scheint es – nur theoretisch und ohne zur Kenntnis zu nehmen, welche Rolle moderne Staaten in den Industriegesellschaften faktisch spielen) zu bezweifeln, ob der Staat der Zukunft noch souverän, national, sozial, steuernd, intervenierend etc. sein könne, um nur einige Attribute des Staates zu nennen, die Gegenstand der skeptischen Überlegungen sind. Rückblickend auf die Debatten um die Steuerungsfähigkeit des Staates, die Krise des Sozialstaats, Deregulierung, Privatisierung und Entbürokratisierung sowie Internationalisierung und Globalisierung ist es an der Zeit, Lösungswege zur Diskussion zu stellen. Nach der soziologischen Entzauberung und philosophischen Dekonstruktion des Staates bedarf es gegenwärtig einer Gegenbewegung: der praxisfähigen Rekonstruktion normativer Leitbilder. ...
The transverse mass spectra of Omega hyperons and phi mesons measured recently by STAR Collaboration in Au+Au collisions at sqrt(s_NN) = 130 GeV are described within a hydrodynamic model of the quark gluon plasma expansion and hadronization. The flow parameters at the plasma hadronization extracted by fitting these data are used to predict the transverse mass spectra of J/psi and psi' mesons.
Reflexive transnational law : the privatisation of civil law and the civilisation of private law
(2002)
The author examines the emergence of a transnational private law in alternative dispute resolution bodies and private norm formulating agencies from a reflexive law perspective. After introducing the concept of reflexive law he applies the idea of law as a communicative system to the ongoing debate on the existence of a New Law Merchant or lex mercatoria. He then discusses some features of international commercial arbitration (e.g. the lack of transparency) which hinder self-reference (autopoiesis) and thus the production of legal certainty in lex mercatoria as an autonomous legal system. He then contrasts these findings with the Domain Name Dispute Resolution System, which as opposed to Lex Mercatoria was rationally planned and highly formally organised by WIPO and ICANN, and which is allowing for self-reference and thus is designed as an autopoietic legal system, albeit with a very limited scope, i.e. the interference of abusive domain name registrations with trademarks (cybersquatting). From the comparison of both examples the author derives some preliminary ideas regarding a theory of reflexive transnational law, suggesting that the established general trend of privatisation of civil law need to be accompanied by a civilisation of private law, i.e. the constitutionalization of transnational private regimes by embedding them into a procedural constitution of freedom.
With new data available from the SPS, at 40 and 80 GeV/A, I review the systematics of bulk hadron multiplicities, with prime focus on strangeness production. The classical concept of strangeness enhancement in central AA collisions is reviewed, in view of the statistical hadronization model which suggests to understand strangeness enhancement to arise chiefly in the transition from the canonical to the grand canonical version of that model. I. e. enhancement results from the fading away of canonical suppression. The model also captures the striking strangeness maximum observed in the vicinity of sqrt s approx 8 GeV. A puzzle remains in the understanding of apparent grand canonical order at the lower SPS, and at AGS energies.
Attribution and detection of anthropogenic climate change using a backpropagation neural network
(2002)
The climate system can be regarded as a dynamic nonlinear system. Thus traditional linear statistical methods are not suited to describe the nonlinearities of this system which renders it necessary to find alternative statistical techniques to model those nonlinear properties. In addition to an earlier paper on this subject (WALTER et al., 1998), the problem of attribution and detection of the observed climate change is addressed here using a nonlinear Backpropagation Neural Network (BPN). In addition to potential anthropogenic influences on climate (CO2-equivalent concentrations, called greenhouse gases, GHG and SO2 emissions) natural influences on surface air temperature (variations of solar activity, volcanism and the El Niño/Southern Oscillation phenomenon) are integrated into the simulations as well. It is shown that the adaptive BPN algorithm captures the dynamics of the climate system, i.e. global and area weighted mean temperature anomalies, to a great extent. However, free parameters of this network architecture have to be optimized in a time consuming trial-and-error process. The simulation quality obtained by the BPN exceeds the results of those from a linear model by far; the simulation quality on the global scale amounts to 84% explained variance. Additionally the results of the nonlinear algorithm are plausible in a physical sense, i.e. amplitude and time structure. Nevertheless they cover a broad range, e.g. the GHG-signal on the global scale ranges from 0.37 K to 1.65 K warming for the time period 1856-1998. However the simulated amplitudes are situated within the discussed range (HOUGHTON et al., 2001). Additionally the combined anthropogenic effect corresponds to the observed increase in temperature for the examined time period. In addition to that, the BPN succeeds with the detection of anthropogenic induced climate change on a high significance level. Therefore the concept of neural networks can be regarded as a suitable nonlinear statistical tool for modeling and diagnosing the climate system.
Vielleicht hätte sich außerhalb der Fachwissenschaft niemand für das Weltklimaproblem interessiert, wären da nicht zwei brisante, miteinander gekoppelte Fakten: Die Menschheit ist hochgradig von der Gunst des Klimas abhängig. Es kann uns daher nicht gleichgültig sein, was mit unserem Klima geschieht. Und: Die Menschheit ist mehr und mehr dazu übergegangen, das Klima auch selbst zu beeinflussen. Daraus erwächst uns allen eine besondere Verantwortung. ...
Die Leistungsfähigkeit moderner Grafikhardware erreicht ein Niveau, auf dem sich selbst aufwändig gestaltete 3D-Szenen in kürzester Zeit berechnen lassen. Die Möglichkeiten, die diese Systeme zur Navigation und Interaktion im dreidimensionalen Raum bieten, erscheinen vielen Anwendern jedoch nicht intuitiv genug. Das Ziel der vorliegenden Arbeit war es, neue Navigations- und Interaktionstechniken für räumliche Anwendungen zu entwerfen und anhand einer prototypischen Implementierung die Eignung dieser Techniken für die Interaktion mit einem virtuellen Modell des Rubik’s Cube zu untersuchen. Da die entwickelten Verfahren ihre Tauglichkeit insbesondere bei der Interaktion über klassische Ein- und Ausgabegeräte unter Beweis stellen sollten (Maus, Tastatur und 2D-Display), waren geeignete Abbildungen der zu beherrschenden Freiheitsgrade zu konzipieren. Die Beschreibung grundlegender Aspekte der menschlichen Wahrnehmung führte zum Konzept der 3D-Metapher, welche die Durchführung einer dreidimensionalen Operation mit Hilfe von 2D-Eingabegeräten erklärt. Einzelne Interaktionsaufgaben des 3D-Raums wurden dargestellt und Beispiele von metaphorischen Konzepten für ihre Implementierung gegeben. Nach der Darstellung der am Rubik’s Cube auftretenden Interaktionsformen wurden metaphorische Konzepte für die Operationen Inspektion und Rotation entworfen und ihre besonderen Eigenschaften beschrieben; hierbei wurde zudem auf spezielle Verfahren eingegangen, die bei der Implementierung dieser Metaphern eingesetzt wurden. Im Rahmen einer Benutzerstudie wurde die Bedienung der konzipierten Interaktionsmetaphern im praktischen Einsatz getestet. Hierbei wurden insbesondere die Kriterien Intuitivität, Effizienz und Erlernbarkeit untersucht sowie die zeitliche Performance und Fehlerhäufigkeiten beim Einsatz der unterschiedlichen Werkzeuge analysiert. Die vorliegende Arbeit bietet eine Reihe von Ansätzen für künftige Erweiterungen, wie zum Beispiel die Weiterentwicklung zu einer Autorenumgebung für interaktive Anwendungen oder die Integration eines Kommunikationskanals zwischen den einzelnen Interaktionsmetaphern, um auf diese Weise auch komplexe Verhaltensmuster implementieren zu können.
Grafik-Hardware ist programmierbar geworden. Graphic Processing Units (GPUs) der neuen Generation wie der GeForce3 von NVIDIA enthalten Prozessoren, die es dem Software-Entwickler erlauben kurze Routinen auf der Grafik-Hardware auszuführen. Ich gebe in dieser Arbeit einen umfassenden Überblick über die Architekur und Leistungsfähigkeit dieser neuen Chipgeneration, zeige deren Stärken und Schwächen auf und diskutiere Verbesserungsvorschläge. Als Teil der Arbeit präsentiere ich einige von mir entwickelte Schattierungsverfahren, sowie eine Wassersimulation. Diese Demonstratoren sind darauf ausgerichtet vollständig auf den Prozessoren der neuen Grafikchip- Generation zu laufen. Als Antwort auf die Mängel der zur Zeit verfügbaren Application Programming Interfaces stelle ich ein alternatives Interface zur Steuerung der neuen GPUKomponenten vor, das insbesondere die Austauschbarkeit und Kombinierbarkeit von GPU-Programmen unterstützt.
Vortrag gehalten an der Tagung "The XVI International Conference on Ultrarelativistic Nucleus-Nucleus Collisions, organized by SUBATECH Laboratory", in Nantes, France, 18-24 Juli 2002.
Rapidity distributions for Lambda and anti-Lambda hyperons in central Pb-Pb collisions at 40, 80 and 158 AGeV and for K 0 s mesons at 158 AGeV are presented. The lambda multiplicities are studied as a function of collision energy together with AGS and RHIC measurements and compared to model predictions. A different energy dependence of the Lambda/pi and anti-Lambda/pi is observed. The anti-Lambda/Lambda ratio shows a steep increase with collision energy. Evidence for a anti-Lambda/anti-p ratio greater than 1 is found at 40 AGeV.
In this paper we present recent results from the NA49 experiment for Lambda and Lambda hyperons produced in central Pb+Pb collisions at 40, 80 and 158 A GeV. Transverse mass spectra and rapidity distributions for Lambda are shown for all three energies. The shape of the rapidity distribution becomes flatter with increasing beam energy. The multiplicities at mid-rapidity as well as the total yields are studied as a function of collision energy including AGS measurements. The ratio Lambda/pi at mid-rapidity and in 4 pi has a maximum around 40 A GeV. In addition, Lambda rapidity distributions have been measured at 40 and 80 A GeV, which allows to study the Lambda Lambda ratio.
Zielsetzung der ultrarelativistischen Schwerionenphysik ist es, hoch verdichtete und stark erhitzte Kernmaterie (gemeint ist hierbei nicht nur die Materie der Atomkerne, sondern allgemein stark wechselwirkende Materie) im Labor zu erzeugen und deren Eigenschaften zu untersuchen. Gitter-QCD Rechnungen sagen bei einer kritischen Energiedichte von 1-2 GeV/fm3 einen Übergang der hadronischen Materie in eine partonische Phase, dem Quark-Gluon-Plasma, voraus. Neben anderen Observablen wurde die Seltsamkeitsproduktion als mögliche Signatur für den Materiezustand quasifreier Quarks und Gluonen vorgeschlagen. Im Vergleich zu elementaren Nukleon-Nukleon-Reaktionen beobachtet man in Schwerionenkollisionen generell eine Überhöhung der Seltsamkeitsproduktion. Inwieweit dieser Unterschied bei allen Schwerpunktenergie auf rein hadronische Phänomene zurückgeführt werden kann, oder ob partonische Gleichgewichtseffekte eine wesentliche Rolle spielen, ist derzeit eines der wichtigen Themen der Schwerionenphysik. Antworten auf diese Fragen erhofft man sich aus der Untersuchung der Energieabhängigkeit der Erzeugung seltsamer Hadronen. Die NA49 Kollaboration hat deshalb am CERN-SPS ein Energie-Scan Programm aufgelegt, in dem zentrale Blei-Blei-Kollisionen bei 40, 80 und 158 A·GeV untersucht wurden. In dieser Arbeit wird die Produktion von Lambda und Antilambda Hyperonen bei den drei verschiedenen Strahlenergien untersucht. Lambda Hyperonen, die 30-60% der produzierten s-Quarks enthalten, erlauben neben der Seltsamkeitsproduktion gleichzeitig auch den durch die kollidierenden Kerne erzeugten Effekt der Baryonendichte zu studieren. Das NA49 Experiment führt präzise Messungen des hadronischen Endzustands über einen weiten Akzeptanzbereich durch. Die geladenen Sekundärteilchen werden in vier hochauflösenden Spurdriftkammern gemessen. Neutrale seltsame Teilchen (Lambda, Antilambda und K0s) werden anhand ihrer Zerfallstopologie identifiziert. Die untersuchten Lambda Hyperonen werden über drei Rapiditätseinheiten um den Bereich zentraler Rapidität und mit Transversalimpulsen von 0,4 und 2,5 GeV/c gemessen. Die Temperaturparameter der Lambda und Antilambda Transversalimpulsverteilungen bei zentraler Rapidität sind für die drei Energien im Rahmen der Fehler gleich. Als Funktion der Schwerpunktenergie beobachtet man einen Anstieg des Lambda-Temperaturparameters, was durch eine Erhöhung des kollektiven transversalen Flusses erklärt werden kann. Erste Ergebnisse zur Proton-Produktion zeigen einen ähnlichen Trend. Die Rapiditätsverteilungen der Lambda sind breiter als die der Antilambda-Hyperonen. Die Lambda Rapiditätsverteilung verbreitert sich mit ansteigender Schwerpunktenergie von einer bei zentraler Rapidität konzentrierten Verteilung bei 40 A·GeV zu einem flachen Verlauf bei 158 A·GeV. Die Lambdas enthalten Beiträge der extrem kurzlebigen Sigma 0, die elektromagnetisch in ein Lambda und ein Photon zerfallen. Die in der Analyse selektierten Lambda und Antilambda sind aufgrund der gewählten Qualitätskriterien nahezu frei von Beiträgen mehrfachseltsamer Baryonen. Der systematische Fehler der Spektren konnte zu 9% abgeschätzt werden. Die Korrekturen und die Analyseprozedur wurden durch die Extraktion des K0s Mesons bei 158 A·GeV und den Vergleich dieser Ergebnisse mit denen der geladenen Kaonen überprüft. Man stellt eine gute Übereinstimmung fest. Zusammen mit Ergebnissen bei niedrigeren Energien läßt sich die Anregungsfunktion der Lambda und AntiLambda Hyperonen studieren. Während die Lambda Multiplizität bei mittlerer Rapidität nach dem Anstieg bei niedrigen Energien im SPS-Energiebereich leicht abfällt bzw. die totale Multiplizität saturiert, beobachtet man für die AntiLambda einen stetigen Anstieg als Funktion der Schwerpunktenergie. Das <Lambda>/<Pi>-Verhältnis in Kern-Kern-Kollisionen zeigt einen steilen Anstieg im AGS-Energiebereich mit anschließendem Maximum und einem Abfall bei SPS-Energien. Dagegen beobachtet man in Nukleon-Nukleon-Reaktionen eine Saturation dieses Verhältnisses bei etwa der höchsten AGS-Energie. Die Normierung auf die Pionen dient dem Vergleich der Produktionsraten in Kern-Kern-Stößen mit denen der elementaren Systeme und ist unabhängig von der Anzahl der beteiligten Nukleonen. Das Maximum des Lambda/Pi Verhältnisses liegt zwischen 10 und 40 A·GeV, wie es von statistischen Modellen vorhergesagt wird. Die Energieabhängigkeit des Lambda/Pi-Verhältnisses läßt sich dementsprechend gut mit dem Statistischen Modell von Cleymans, Redlich et al. beschreiben. Der generelle Trend des Lambda/Pi Verhältnisses wird von den mikroskopischen Modellen (UrQMD, HSD, RQMD) richtig wiedergegeben, wobei jedoch die Datenpunkte (besonders für 40 A·GeV) unterschätzt werden. Die Vorhersagen des UrQMD- und HSD-Modells für die Lambda Rapiditätsverteilung zeigen sehr gute Übereinstimmung mit den Daten. Die Diskrepanz im Lambda/Pi Verhältnis ist somit auf die überschätzte Pion-Produktion zurückzuführen. Die AntiLambda Produktion wird von dem UrQMD- und RQMD-Modell um mehr als einen Faktor zwei unterschätzt. Die Lambda und Antilambda Produktionsraten für alle drei Energien und die totale K0s Multiplizität bei 158 A·GeV fügen sich in einer statistischen Modellanalyse von Becattini in die Systematik der anderen Teilchen ein. Der Seltsamkeits-Saturationsfaktor gamma s zeigt keine große Änderung als Funktion der Energie. Das AntiLambda/Lambda Verhältnis bei mittlerer Rapidität, das den Paarproduktionsprozess widerspiegelt, steigt rapide von AGS- bis RHIC-Energien an. Der gleiche Trend ist für das ¯p/p Verhältnis beobachtbar. Das AntiLambda/¯p Verhältnis erlaubt das Zusammenspiel der Produktions und Annihilationsprozesse zu studieren. Im SPS-Energiebereich steigt dieses Verhältnis mit abnehmender Schwerpunktenergie leicht an. Die Ergebnisse der vorliegenden Arbeit wurden auf der Strange-Quark-Matter Konferenz 2001 [1] und der Quark-Matter Konferenz 2002 [2] vorgestellt und diskutiert.
Excitation functions for quasi-elastic scattering have been measured at backward angles for the systems 32,34S+197Au and 32,34S+208Pb for energies spanning the Coulomb barrier. Representative distributions, sensitive to the low energy part of the fusion barrier distribution, have been extracted from the data. For the fusion reactions of 32,34S with 197Au couplings related to the nuclear structure of 197Au appear to be dominant in shaping the low energy part of the barrier distibution. For the system 32S+208Pb the barrier distribution is broader and extends further to lower energies, than in the case of 34S+208Pb. This is consistent with the interpretation that the neutron pick-up channels are energetically more favoured in the 32S induced reaction and therefore couple more strongly to the relative motion. It may also be due to the increased collectivity of 32S, when compared with 34S.
Die vorliegende Arbeit beschäftigt sich mit der Produktion positiv und negativ geladener Pionen im System Au+Au bei einer kinetischen Strahlenergie von 1,5 GeV pro Nukleon. Diese Daten wurden im Juli 1998 mit dem Kaonenspektrometer KaoS gemessen. Es liegen Pi-Minus-Spektren bei drei verschiedenen Laborwinkeln (Theta Lab = 40°, 48°, 60°) vor sowie Pi-Plus-Spektren bei fünf Laborwinkeln(Theta Lab = 32°, 40°, 48°, 60°, 71,5°). Die Spektren können als Funktion der Energie im Nukleon-Nukleon-Schwerpunktssystem mit der Summe zweier Boltzmannverteilungen beschrieben werden, deren Steigung sich ebenso wie der unter Annahme isotroper Emission im Schwerpunktssytem integrierte Wirkungsquerschnitt mit dem Laborwinkel ändert. Als mögliche Ursache dieses Verhaltens wird untersucht, ob eine polare Anisotropie der Emission vorliegt. Eine solche wurde in früheren Experimenten [49, 50] für die Pionenproduktion in Proton-Proton-Stößen gefunden und als Effekt der p-Wellen-Produktion von Pionen interpretiert, bei der als Zwischenschritt eine Resonanz, zumeist eine Delta-Resonanz, angeregt wird. Die Zerfallskinematik dieser Resonanzen bewirkt duch ihren Drehimpuls eine Winkelverteilung der emittierten Pionen [24]. In Kern-Kern-Stößen führt die Abschattung von Pionen durch nicht an der Reaktion teilnehmende Nukleonen zu einer zusätzlichen Richtungsabhängigkeit der Emission. Unter der Annahme, daß Energie- und Winkelabhängigkeit separierbar sind, wird in einem einfachen Modell der Winkelanteil des differentiellen Wirkungsquerschnitts als Funktion des Kosinus des Schwerpunktswinkels mit einer Parabelform beschrieben. Um den Anpassungsparameter a2, der die Stäke der Anisotropie quantifiziert, zu ermitteln, stehen zwei Methoden zur Verfügung, die simultane Anpassung der bei festem Laborwinkel gemessenen Spektren und der Vergleich mit einer durch Schnitte durch die Laborimpulsspektren erzeugten Verteilung bei Theta cm = 90°. Beide Verfahren ermitteln erfolgreich den Anisotropieparameter aus in einer Monte-Carlo-Simulation erzeugten Spektren mit parabelförmiger Winkelverteilung. Die mit beiden Methoden ermittelten a2-Werte stimmen für Pi+ wie für Pi- im Rahmen der Fehler überein. Die Winkelverteilung der Pi+ ist mit a2 = 0,7 +- 0,1 stärker ausgeprägt als die der Pi- mit a2 = 0,4 +- 0,1, beide werden bevorzugt unter Theta cm = 0° und Theta cm = 180° emittiert. Allerdings zeigt sich in beiden Methoden eine starke Abhängigkeit von der Phasenraumabdeckung der Daten und beide sind nicht geeignet, eine Abhängigkeit des Anisotropieparameters von der Pionenenergie zu ermitteln....
Um die Privatsphäre der Kinder und deren Eltern zu schützen, wurden die Fotos der Kinder aus dieser PDF-Datei entfernt. Interessierte Eltern oder Fachleute können die vollständige Arbeit als PDF-Datei (11 MB) zum Download bei http://www.leona-ev.de/piper/ oder chrispiper@freenet.de anfordern. Chromosomenstörungen gehören mit einer Häufigkeit von 1,8/1000 Neugeborene zu den häufigeren angeborenen Störungen. Die Mehrzahl der betroffenen Kinder stirbt bereits intrauterin in der Frühschwangerschaft, weil schon Nidation bzw. die frühe Embryonalentwicklung durch die Chromosomenstörung verhindert werden. Etwa 50% aller Spontanaborte sind durch eine Chromosomenstörung verursacht. Einige Chromosomenstörungen wie z.B. komplette Trisomie 14 oder 16 führen immer zu einem Abort, so daß keine die normale Schwangerschaft überlebenden Patienten bekannt sind. Bei den Trisomien 13 und 18 enden 95% der Schwangerschaften mit einem Abort, bei der häufigeren Trisomie 21 sterben 80% der Patienten intrauterin. Von den lebendgeborenen Kindern mit Chromosomenaberrationen sterben wiederum viele schon im ersten Lebensjahr, zumeist aufgrund schwerer Fehlbildungen, insbesondere Herzfehlern und Nierenfehlbildungen. Während der Phänotyp der häufigeren Chromosomenstörungen gut bekannt ist, gibt es bis auf die Trisomie 21 nur wenige Untersuchungen zu ihrem Verlauf. Systematische Daten zur psychomotorischen Entwicklung der Patienten, zu Komplikationen, zu möglichen Therapien sowie zur Effektivität der Therapien fehlen völlig. So wird auch heute noch in vielen Arztbriefen davon ausgegangen, daß Kinder mit Trisomie 13 oder 18 innerhalb der ersten Lebensmonate versterben und deshalb werden Therapien - wenn überhaupt - nur verzögert oder partiell eingeleitet. Darüber hinaus wird den Eltern durch die Prognose eines schnellen und frühen Todes ein Verlauf suggeriert, der im Einzelfall eben nicht eintreten muß. Die Beziehung zum Patienten, die Erwartungen an den Patienten sowie der Umgang mit dem Patienten, die gesamte Lebensplanung einer Familie und viele Dinge mehr werden dadurch in eine nicht gerechtfertigte Richtung gelenkt. Bei einigen Patienten führte falsche Voraussage eines „baldigen frühen Todes“ soweit, daß die Eltern und die Umgebung ständig darauf wartete, daß der Patient stirbt und die Diagnose von Eltern und Ärzten bezweifelt wurde als das Kind die ersten Lebensjahre überlebte. Mehrfach wurden deshalb Chromosomenanalysen wiederholt, um die Diagnose zu überprüfen. Gerade in unserer Zeit, in der die Intensivmedizin und die operativen Techniken auch Patienten mit komplexen Fehlbildungen ein Überleben ermöglichen, gibt es deshalb immer mehr Patienten mit Chromosomenstörungen, die ein höheres Lebensalter erreichen. Daraus folgt unmittelbar, daß mehr Daten über ältere Patienten mit Chromosomenstörungen gewonnen werden müssen, um bessere und individuellere Therapien zu entwickeln.
Die Gitterbasenreduktion hat in der algorithmischen Zahlentheorie und der Kryptologie bedeutende und praktisch relevante Anwendungen [Joux und Stern, 1998; Nguyen und Stern, 2000; Nguyen, 2001]. Ein wesentlicher Beitrag auf dem Gebiet der Gitter-Reduktionsalgorithmen ist der LLL-Algorithmus [Lenstra, Lenstra und Lov´asz, 1982] und auch die Beta-Reduktion (BKZ-Reduktion) von Gitterbasen [Schnorr, 1987, 1988, 1994] ist von großer Bedeutung. Bei Implementierungen dieser Algorithmen auf modernen Rechnerarchitekturen erfolgen viele Berechnungen aus Gründen der schnelleren Verarbeitungsgeschwindigkeit in Gleitpunktzahlen-Arithmetik. Aufgrund inhärenter Rundungsfehler kommt es dabei zu numerischen Instabilitäten. Vor [Koy und Schnorr, 2001b] gab es keine erfolgreichen Ansätze die bei der Gitterbasenreduktion auftretenden Rundungsfehler so zu kontrollieren, dass auch Gitterbasen in der Dimension >= 400 reduziert werden können. Diese Diplomarbeit beschäftigt sich mit den praktischen Aspekten der Gitterbasenreduktion in Segmenten. Dabei handelt es sich um die erstmalige Implementierung und experimentelle Evaluierung der folgenden beiden Verfahren: ....
Der Begriff Eurocomprehension steht für Europäische Interkomprehension in den drei großen Sprachengruppen Europas, der romanischen, slawischen und germanischen. Es geht der Eurocomprehension darum, unter EU-konformen sprachpolitischen Zielsetzungen Mehrsprachigkeit über den Einstieg in rezeptive Kompetenzen modularisiert zu erreichen. Dabei liefert die linguistische Interkomprehensionsforschung die interlingualen Transferbasen zur kognitiven Nutzung von Verwandtschaftsbeziehungen in Sprachgruppen, die eine Mehrsprachigkeitsdidaktik umsetzt. ...
Rezeptive Mehrsprachigkeit ist eine der jüngsten Forderungen der EU-Kommission zum Erreichen einer realistischen Mehrsprachigkeit in Europa. Die maximalistischen Forderungen nach Perfektion in allen sprachlichen Kompetenzen haben sich in den nationalen Unterrichtswesen als illusionär erwiesen, da diese nirgendwo von statistisch nachvollziehbarem Erfolg gekrönt sind. Die sprachliche Diversität im multilingualen Europa findet sich nicht in der Realität der Bildungssysteme wieder. Zwar verfügen heute europaweit 26 % der Europäer über eine zweite und 8% über eine dritte Fremdsprache, in den einzelnen Ländern sieht es jedoch oft desolat aus. Während in den kleineren Unionsländern kaum jemand als nur monolingual gilt (Luxemburg 2%) ist die Krankheit der Einsprachigkeit in den großen EU-Staaten seuchenhaft verbreitet, etwa Großbritannien mit 66%. Dies hat in den neunziger Jahren in der Kommission zu den Postulaten geführt, die sich die Forschergruppe EuroCom als Programm gesetzt hat, nämlich Mehrsprachigkeit über den Einstieg in rezeptive Kompetenzen modularisiert und kognitiv über Transferbasen innerhalb von Sprachfamilien zu erreichen. EuroCom steht dabei als Kürzel für Eurocomprehension, ein Akronym für Europäische Interkomprehension in den drei großen Sprachengruppen Europas, der romanischen, slawischen und germanischen. Die Beschränkung auf rezeptive Kompetenzen ist dabei nur ein methodisches Ausgangsprinzip, das es ermöglicht, Mehrsprachigkeit besonders schnell über das Leseverständnis zu erreichen und modularisiert auf Hörverständnis und aktive Sprechkompetenz sukzessiv auszuweiten. Die Methode EuroCom arbeitet über die Aktivierung intralingualen Wissens mit linguistischem Transfermaterial in nahverwandten Sprachen, das als kognitives Potential den Erschließungsprozess optimiert und in kürzester Zeit ein Lese- und Hörverstehen in einer ganzen Sprachenfamilie erreichbar macht. ...
Le concept d’eurocompréhension signifie intercompréhension dans les trois grands groupes linguistiques européens, à savoir les langues romanes, slaves et germaniques. Il s’agit, en respectant les objectifs1 de la politique linguistique de l’Union Européenne, de parvenir de façon modulaire au plurilinguisme par le biais de compétences réceptives. Dans ce cadre, les recherches linguistiques effectuées sur l’intercompréhension fournissent les bases de transfert interlangues pour l’exploitation cognitive de la parenté entre les langues des groupes différents. ...
Wissenschafts- und Kulturinstitutionen, Bibliotheken und Archive haben heute nicht nur neue Medien zu erwerben, sondern sie stehen auch vor der Aufgabe, das bereits vorhandene Kulturgut auf Dauer zu erhalten. Die Beseitigung von Schäden durch Papierzerfall ist hier nur ein Beispiel. Bei der Rettung historischen Kulturguts ist die Deutsche Forschungsgemeinschaft -neben anderen Institutionen - ein verlässlicher Partner. Ebenso wie beispielsweise die VW-Stiftung unterstützt sie zahlreiche Restaurierungs-, Sicherheitsverfilmungs- und Digitalisierungsvorhaben in den Bereichen Kultur und Wissenschaft. Ich möchte nunmehr versuchen, die Bedeutung der sog. Bestandserhaltung für unser kulturelles Gedächtnis durch sieben kurze Bemerkungen schlaglichtartig zu bestimmen: Diese Bemerkungen tragen die Überschriften: 1) Bibliotheken und Wissenschaft, 2) Bestandserhaltung hat heute Konjunktur, 3) Tontafeln, saure Bücher, Tonbänder und digitale Datenträger, 4) Einige praktische Aspekte des Bestandsschutzes beim traditionellen Buchgut, 5) Sicherheitsverfilmung und Digitalisierung in Archiven und Bibliotheken, 6) Bestandserhaltung, Marketing, Öffentlichkeitsarbeit und 7) Bestandserhaltung in der Wissenschaftsstadt Frankfurt und die "Aktion Notbuch" der Stadt- und Universitätsbibliothek Frankfurt a. M. Zum Artikel: Stand: Januar 2002
Homo Artificialis - Androiden und Cyborg-Konzepte am Beispiel der Science-Fiction-Serie Star Trek
(2002)
Der Untertitel „Androiden- und Cyborg-Konzepte“ weist bereits darauf hin, dass in dieser Arbeit zwei diametrale Richtungen der maschinellen Entwicklung aufgezeigt werden sollen. Zum einen ist es die Entwicklung des Roboters zum Androiden, also von der Maschine zur Menschenimitation hin, die andere Entwicklung ist die des Menschen zum Cyborg,bei der eine Technisierung des Menschen stattfindet. Diese zwei entgegengesetzten Richtungen,die sich aber auch in Form des Mensch-Maschine-Amalgams in Form des „Homo Artificialis“ überschneiden, gilt es in dieser Arbeit zu beobachten und zu analysieren. Die hierbei verwendete Methodik des ersten Teils richtet ihren Blick zunächst in die Vergangenheit und beobachtet in kurzer Form die Motivationen und die Entwicklung von künstlichem Leben. Anschließend richtet sich der Schwerpunkt auf den gegenwärtigen naturwissenschaftlichen und geisteswissenschaftlichen Forschungsstand der Robotik und der künstlichen Intelligenz. Da es so etwas wie einen menschlichen Androiden bis zum jetzigen Zeitpunkt noch nicht gibt, richtet sich der analytische Blick in dieser Arbeit auf die gegenwärtigen Entwicklungen, die eines Tages möglicherweise zu einer exakten mechanischen Version des organischen Menschen führen werden. Hierbei sollen Fragen der Maschinenintelligenz und des Maschinenbewusstseins untersucht werden: Ist Maschinenintelligenz oder sogar ein Maschinenbewusstsein möglich? Warum gibt es eine Grundangst vor der Mechanisierung und der Vermenschlichung der Technik? Was könnte passieren, wenn Roboter intelligenter würden als wir oder vielleicht Emotionen bekämen? Würden wir diese vielleicht emotional fühlenden Wesen versklaven oder würden wir durch Gesetze daran gehindert werden? Der Versuch, diese ethischen, philosophischen, kognitionswissenschaftlichen und medientheoretischen Fragen interdisziplinär zu diskutieren, schließlich den Blick auf eine mögliche Zukunft auszurichten und anhand einer Utopie diese Fragen zu untersuchen, soll der Schwerpunkt dieser Arbeit sein. Science Fiction beschreibt die Gegenwart als Vergangenheit vom Standpunkt einer möglichen Zukunft aus! Hierbei wird über mögliche Entwürfe spekuliert und von Tendenzen ausgegangen, die sich in der Gegenwart abzeichnen. Dabei werden insbesondere Errungenschaften der Technowissenschaften und deren futuristische Auswirkungen imaginiert und in ökonomische, soziale und kulturelle Zusammenhänge integriert. Insbesondere Star Trek stellt einen Schauplatz dafür dar, wie Identitäten oder Affinitäten einer möglichen Zukunft hinlänglich eines konstruierten Körpers aussehen könnten. Der zweite Teil dieser Arbeit ist den Cyborgs gewidmet. Ausgehend von einer Konstruktion des überaus komplexen Cyborg-Begriffs, wird dieser durch neuere Richtungen der Cyborg-Wissenschaften auch wieder dekonstruiert. Das spezielle Augenmerk wird, neben der Entwicklung durch Raumfahrt, Militär und Medizin, auf die der transhumanistischen und feministischen Anschauungen gerichtet sein, die den Cyborg-Begriff in neue Dimensionen transformieren. Letztendlich soll auch zu dem Thema dieser Mensch- und Maschine-Überkreuzungen die Perspektive der Science Fiction Serie Star Trek aufgezeigt werden.
Der vorliegende Bericht zur ‘Szenestudie 2002’ vermittelt eine aktuelle Situationsbeschreibung der offenen Drogenszene in Frankfurt am Main. Diese Studie zum Drogengebrauchsverhalten und Alltagsgeschehen auf der offenen Drogenszene versteht sich als eine Teilstudie im Rahmen eines komplexen Monitoringsystems (MoSyD _‘Monitoring-System Drogentrends’), welches in 2002 in der Stadt Frankfurt eingerichtet wurde, um zeitnah und umfassend neue Entwicklungen im Bereich des Konsums legaler wie illegaler Drogen verfolgen zu können (ausführlich: Kemmesies und Hess 2001). Die folgende Zusammenfassung gibt die zentralen Beobachtungen und Ergebnisse der Erhebung wieder. Diese Teilstudie vom MoSyD fokussiert auf den so genannten problematischen Kern des Drogenphänomens: Mit der Erscheinung offener Drogenszenen gehen vielfältige drogenpolitischen Herausforderungen einher. Diese beziehen sich sowohl auf sozial-medizinische wie strafrechtliche Aspekte, wie sie in den Stichworten Infektionskrankheiten, Beschaffungskriminalität, Deprivation, Verelendung et cetera geradezu greifbare Realität gewinnen. Aufgrund der enormen sozial-, gesundheits- wie ordnungspolitischen Herausforderungen und einer mitunter rasanten Veränderungsdynamik im mittelbaren und unmittelbaren Umfeld der offenen Drogenszene dokumentieren wir bereits hiermit - außerhalb des projektierten jährlichen Berichtsturnus vom MoSyD und zeitnah zur Interviewerhebung - unsere Beobachtungen. Im Vorgriff auf die konkreten Ergebnisse sei bereits angemerkt, dass sich die Situation offenbar innerhalb der letzten Jahre stark verändert hat: Wenn bisher eine offene Drogenszene in Deutschland in erster Linie mit dem klassischen Vorstellungsbild von einem intravenös Heroin konsumierenden ‘Junkie’ assoziiert war, so scheint diese Assoziation – zumindest mit Blick auf Frankfurt – die Realität nur noch äußerst gebrochen widerzuspiegeln. Denn Heroin hat seine dominierende Position auf dem Drogenschwarzmarkt verloren und an Kokain beziehungsweise dessen Derivat Crack abgegeben. Darüber hinaus hat sich der intravenöse Drogenkonsum insgesamt deutlich – um etwa die Hälfte – reduziert. Da systematisch vergleichbare Daten weit zurückreichen und erst aus dem Jahre 1995 vorliegen (Kemmesies 1995b), lässt sich nicht näher ergründen, wie es um die Dynamik der prozessualen Veränderungen bestellt ist: Befinden wir uns am Ende einer Entwicklung oder aber stecken wir mitten in einem grundsätzlichen Veränderungsprozess, innerhalb dessen sich das Bild der offenen Drogenszene grundlegend wandeln wird. Um einen besseren Einblick in die Veränderungsdynamik gewinnen zu können, schlagen wir vor, von dem ursprünglich im Rahmen vom MoSyD vorgesehenen zweijährigen Erhebungsturnus abzurücken und die Szenestudie bereits 2003 erneut durchzuführen. Ausgehend von zentralen Ergebnissen wäre näher zu ergründen, inwieweit der offensichtliche Trend einer Altersanhebung im Umfeld der offenen Drogenszene anhält, ob es zu einer fortschreitenden Ausweitung von kokain-/crackorientierten Drogengebrauchsmustern kommt, und inwieweit diese Entwicklungen sich im allgemeinen Gesundheitszustand der Drogenkonsumenten abbilden. Weiterhin wäre zu prüfen, ob die geplante Ausweitung der Substitutionsbehandlung in Gestalt des Heroinerprobungsprogramms sich auch auf das ‘typische’ Drogengebrauchsverhalten auf der offenen Drogenszene auswirkt.
In the last years, much effort went into the design of robust anaphor resolution algorithms. Many algorithms are based on antecedent filtering and preference strategies that are manually designed. Along a different line of research, corpus-based approaches have been investigated that employ machine-learning techniques for deriving strategies automatically. Since the knowledge-engineering effort for designing and optimizing the strategies is reduced, the latter approaches are considered particularly attractive. Since, however, the hand-coding of robust antecedent filtering strategies such as syntactic disjoint reference and agreement in person, number, and gender constitutes a once-for-all effort, the question arises whether at all they should be derived automatically. In this paper, it is investigated what might be gained by combining the best of two worlds: designing the universally valid antecedent filtering strategies manually, in a once-for-all fashion, and deriving the (potentially genre-specific) antecedent selection strategies automatically by applying machine-learning techniques. An anaphor resolution system ROSANA-ML, which follows this paradigm, is designed and implemented. Through a series of formal evaluations, it is shown that, while exhibiting additional advantages, ROSANAML reaches a performance level that compares with the performance of its manually designed ancestor ROSANA.
Elektronische (digitale) Zeitschriften spielen seit mehreren Jahren eine zunehmend wichtigere Rolle in der Informationsversorgung von Wissenschaft und Forschung. Während jedoch die Nutzungsformen sich so gut wie vollständig an den Standards des www mit all seinen Vorzügen orientieren, sind die Preisbildungsmechanismen noch stark an der Welt der gedruckten Zeitschriften orientiert. Sie unterliegen allerdings zur Zeit einem erheblichen Wandel, ohne dass erkennbar wäre, welche Preisstrukturen zukünftig den Markt bestimmen werden. Das seit November 2001 laufende DFG-Projekt "Perspektiven für den Bezug elektronischer Informationsressourcen in der Bundesrepublik Deutschland" hat sich zum Ziel gesetzt, die Marktsituation für elektronische Informationsversorgung im hochschulischen Bereich zu analysieren und davon ausgehend Perspektiven abzuleiten. In einer ersten Phase sollen zunächst die Nutzungsgewohnheiten seitens der Wissenschaftler und Studierenden untersucht werden. Die Ergebnisse werden in der vorliegenden Arbeit exemplarisch aufgezeigt, eine detaillierte Nutzungsanalyse wird zu einem späteren Zeitpunkt veröffentlicht.
We review the representation problem based on factoring and show that this problem gives rise to alternative solutions to a lot of cryptographic protocols in the literature. And, while the solutions so far usually either rely on the RSA problem or the intractability of factoring integers of a special form (e.g., Blum integers), the solutions here work with the most general factoring assumption. Protocols we discuss include identification schemes secure against parallel attacks, secure signatures, blind signatures and (non-malleable) commitments.
We show that non-interactive statistically-secret bit commitment cannot be constructed from arbitrary black-box one-to-one trapdoor functions and thus from general public-key cryptosystems. Reducing the problems of non-interactive crypto-computing, rerandomizable encryption, and non-interactive statistically-sender-private oblivious transfer and low-communication private information retrieval to such commitment schemes, it follows that these primitives are neither constructible from one-to-one trapdoor functions and public-key encryption in general. Furthermore, our separation sheds some light on statistical zeroknowledge proofs. There is an oracle relative to which one-to-one trapdoor functions and one-way permutations exist, while the class of promise problems with statistical zero-knowledge proofs collapses in P. This indicates that nontrivial problems with statistical zero-knowledge proofs require more than (trapdoor) one-wayness.
We present an efficient variant of LLL-reduction of lattice bases in the sense of Lenstra, Lenstra, Lov´asz [LLL82]. We organize LLL-reduction in segments of size k. Local LLL-reduction of segments is done using local coordinates of dimension 2k. Strong segment LLL-reduction yields bases of the same quality as LLL-reduction but the reduction is n-times faster for lattices of dimension n. We extend segment LLL-reduction to iterated subsegments. The resulting reduction algorithm runs in O(n3 log n) arithmetic steps for integer lattices of dimension n with basis vectors of length 2O(n), compared to O(n5) steps for LLL-reduction.
We show that P(n)*(P(n)) for p = 2 with its geometrically induced structure maps is not an Hopf algebroid because neither the augmentation Epsilon nor the coproduct Delta are multiplicative. As a consequence the algebra structure of P(n)*(P(n)) is slightly different from what was supposed to be the case. We give formulas for Epsilon(xy) and Delta(xy) and show that the inversion of the formal group of P(n) is induced by an antimultiplicative involution Xi : P(n) -> P(n). Some consequences for multiplicative and antimultiplicative automorphisms of K(n) for p = 2 are also discussed.
Der Malaria verursachende Organismus Plasmodium falciparum (P. falciparum) besitzt in seinem Kerngenom für die Mitochondrien bestimmte Proteine, die als Transportsignal ein mitochondriales Transitpeptid enthalten. Durch die kürzlich erfolgte Sequenzierung des Genoms von P. falciparum ist es wünschenswert, Vohersagealgorithmen für verschiedene Proteinlokalisationen zur Verfügung zu haben. Für andere Organismen etablierte Programme zur Vorhersage von mitochondrialen Transitpeptiden, MitoProtII und TargetP, lieferten bei Anwendung auf Sequenzen aus P. falciparum nur unbefriedigende Ergebnisse. MitoProtII erzielte in einer 20-fachen Kreuzvalidierung einen Mathews-Koeffizienten von cc = 0,49, TargetP erzielte in diesem Fall einen Mathews-Koeffizienten von cc = 0,60. TargetP erzielte für die Sequenzen aus P. falciparum nur eine Selektivität von 47%, MitoProtII nur eine Sensitivität von 35%. Dieser Ergebnisse haben die Entwicklung eines speziell auf P. falciparum trainierten Vorhersagemodells wünschenswert gemacht. Kerncodierte mitochondriale Precursorproteine aus P. falciparum wurden mit statistischen Methoden, Hauptkomponentenanalyse, selbstorganisierenden Karten und überwachten neuronalen Netzen analysiert und mit solchen aus anderen Organismen verglichen. Zwei Repräsentationen der Datensätze wurden gewählt, Aminosäurehäufigkeiten und 19 physikochemische Eigenschaften. Ein grundsätzlich unterschiedlicher Aminosäuregebrauch konnte festgestellt werden. Glycin, Alanin, Prolin und Arginin werden in P. falciparum mit weniger als 60% der Häufigkeit in der Swiss-Prot-Datenbank, Version 36, verwendet. Isoleucin, Tyrosin, Asparagin und Lysin werden hingegen mit mehr als 150% der Häufigkeit in der Referenzdatenbank verwendet. Diese Häufigkeitsmuster wurden, mit Variationen, auch in allen Targetingsequenzen beobachtet. In der Datenanalyse mittels Hauptkomponentenanalyse und selbstorganisierenden Karten ließen sich cytoplasmatische Proteine in beiden Repräsentationen klar von der Gruppe mitochondrialer, extrazellulärer und apicoplastischer Proteine trennen. Die Trennung innerhalb der zweiten Gruppe war weniger deutlich. Ein neuronales Netz (PlasMit) zur Vorhersage mitochondrialer Transitpeptide in P. falciparum wurde entwickelt. Basierend auf der relativen Aminosäurehäufigkeitsverteilung innerhalb der ersten 24 N-terminalen Aminosäuren lieferte es einen Mathews- Korrelationskoeffizienten von 0,74 (86% korrekt vorhergesagte Sequenzen) in einer 20fachen Kreuzvalidierung. Dieses Netz sagte 2449 (24%) der 10276 vorhergesagten Open Reading Frames aus dem Genom von P. falciparum als mögliche mitochondrial lokalisierte Proteine voraus. Ein Netz mit identischer Topologie wurde auf eine geringere Anzahl falsch-positiver Vorhersagen trainiert und erzielte einen Mathews-Koeffizienten von 0,51 (84% korrekte Vorhersagen) in einer 10fachen Kreuzvalidierung. Dieses Netz sagte 903 (8,8%) potentielle mitochondriale Precursorproteine unter den 10276 vorhergesagten Open Reading Frames voraus. Sämtliche Trainingsdatensätze, die Open Reading Frames des Genoms von P. falciparum, sowie das Netz, das den höchsten Mathews-Koeffizienten erzielt hat, sind per Web unter http://www.modlab.de, Menüpunkt PlasMit, erreichbar.
Die vorliegende Arbeit beschäftigt sich mit der Ermittlung des Preises von Optionen. Optionen sind spezielle Derivate, die wiederum Hull in seinem Buch definiert als: Ein Derivat ist ein Finanzinstrument, dessen Wert von einem anderen, einfacheren zu Grunde liegenden Finanzinstrument (underlying) abhängt . Ein underlying kann unter anderem auch eine Anleihe, eine Aktie oder der Umtauschkurs zweier Währungen sein....
In der vorliegenden Arbeit werden Aspekte autonomer und nichtautonomer dynamischer Systeme behandelt, wobei Attraktoren und verwandte Objekte eine wichtige Rolle spielen werden. Zunächst findet man in einem Kapitel über dynamische Systeme die Definition der grundlegenden Begriffe Attraktor, Repeller und Schiefproduktfluss, gefolgt von zwei hinreichenden Bedingungen für die Existenz von Attraktoren. Mit den Attraktoren und Repellern können dann im nächsten Kapitel Morsemengen eingeführt werden. Dadurch kann das Verhalten eines dynamischen Systems qualitativ beschrieben werden. Des weiteren wird auf die Bedeutung der Kettenrekurrenzmenge für die Morsemengen eingegangen. Im Kapitel über Kontrolltheorie wird, nach einer kurzen Einführung in dieses Gebiet, gezeigt, dass der dort definierte Lift einer Kettenkontrollmenge unter gewissen Voraussetzungen eine Morsemenge ist. Im letzten Kapitel geht es um Pullback-Attraktoren, die unter den angegebenen Bedingungen als Attraktoren für den Schiefproduktfluss interpretiert werden können.
Background: The cosmopolitan moon jelly Aurelia is characterized by high degrees of morphological and ecological plasticity, and subsequently by an unclear taxonomic status. The latter has been revised repeatedly over the last century, dividing the genus Aurelia in as many as 12 or as little as two species. We used molecular data and phenotypic traits to unravel speciation processes and phylogeographic patterns in Aurelia.
Results: Mitochondrial and nuclear DNA data (16S and ITS-1/5.8S rDNA) from 66 world-wide sampled specimens reveal star-like tree topologies, unambiguously differentiating 7 (mtDNA) and 8 (ncDNA) genetic entities with sequence divergences ranging from 7.8 to 14% (mtDNA) and 5 to 32% (ncDNA), respectively. Phylogenetic patterns strongly suggest historic speciation events and the reconstruction of at least 7 different species within Aurelia. Both genetic divergences and life history traits showed associations to environmental factors, suggesting ecological differentiation forced by divergent selection. Hybridization and introgression between Aurelia lineages likely occurred due to secondary contacts, which, however, did not disrupt the unambiguousness of genetic separation.
Conclusions: Our findings recommend Aurelia as a model system for using the combined power of organismic, ecological, and molecular data to unravel speciation processes in cosmopolitan marine organisms.
© 2002 Schroth et al; licensee BioMed Central Ltd. Verbatim copying and redistribution of this article are permitted in any medium for any non-commercial purpose, provided this notice is preserved along with the article's original URL: http://www.biomedcentral.com/1471-2148/2/1
Staatsexamensarbeit 2002. In der nachfolgenden Arbeit werde ich im zweiten Kapitel theoretisch fraktionale Ableitungen vorstellen, um dann im dritten Kapitel praktisch mit MAPLE fraktionale Ableitungen zu veranschaulichen. Genauso werde ich auch das Gebiet der fraktionalen Differentialgleichungen einführen, d.h. zuerst wird ein theoretischer Teil über Lösungsmethoden behandelt und darauf folgend ein praktischer Teil, in dem mittels MAPLE diverse Gleichungen gelöst werden. Das zweite Dokument enthält MAPLE Programme aus der Arbeit (ZIP-Format, 145154 Bytes).
We reconsider estimates for the heat kernel on weighted graphs recently found by Metzger and Stollmann. In the case that the weights satisfy a positive lower bound as well as a finite upper bound, we obtain a specialized lower estimate and a proper generalization of a previous upper estimate. Reviews: Math. Rev. 1979406, Zbl. Math. 0934.46042
The dynamical quantum Zeno effect is studied in the context of von Neumann algebras. It is shown that the Zeno dynamics coincides with the modular dynamics of a localized subalgebra. This relates the modular operator of that subalgebra to the modular operator of the original algebra by a variant of the Kato-Lie-Trotter product formula.
This extended write-up of a talk gives an introductory survey of mathematical problems of the quantization of gauge systems. Using the Schwinger model as an exactly tractable but nontrivial example which exhibits general features of gauge quantum field theory, I cover the following subjects: The axiomatics of quantum field theory, formulation of quantum field theory in terms of Wightman functions, reconstruction of the state space, the local formulation of gauge theories, indefiniteness of the Wightman functions in general and in the special case of the Schwinger model, the state space of the Schwinger model, special features of the model. New results are contained in the Mathematical Appendix, where I consider in an abstract setting the Pontrjagin space structure of a special class of indefinite inner product spaces - the so called quasi-positive ones. This is motivated by the indefinite inner product space structure appearing in the above context and generalizes results of Morchio and Strocchi [J. Math. Phys. 31 (1990) 1467], and Dubin and Tarski [J. Math. Phys. 7 (1966) 574]. See the corresponding paper: Schmidt, Andreas U.: "Infinite Infrared Regularization and a State Space for the Heisenberg Algebra" and the presentation "Infinite Infrared Regularization in Krein Spaces".
Das Ziel dieser Arbeit war die Entwicklung einer haptischen 3D-Benutzungsoberfläche für die Virtual-Glove-Box. Eine „Glove Box“ ist ein Apparat, in welchem chemische Versuche in abgeschlossener Atmosphäre durchgeführt werden können. Die „Virtual Glove Box“ setzt dieses Konzept für Virtual Reality Anwendungen um. Die Oberflächenelemente waren als wiederverwendbare Komponenten auszuführen. Die Bedienung erfolgt unter Einsatz zweier virtueller Hände mit an den Händen getragenen Exoskeletten zur Vermittlung des haptischen Feedbacks. Es enstand EASY, ein System zur einfachen und individuellen Gestaltung von Benutzungsberflächenelementen. Diese können in ein bereitgestelltes Framework einfügt und ohne Wissen über die zugrundeliegende Hardware benutzt werden. Die Entwicklung konnte nicht abgeschlossen werden, da die zur Verfügung stehenden Hardware-Komponenten nicht in Betrieb zu nehmen waren.
Syndicated loans and the number of lending relationships have raised growing attention. All other terms being equal (e.g. seniority), syndicated loans provide larger payments (in basis points) to lenders funding larger amounts. The paper explores empirically the motivation for such a price discrimination on sovereign syndicated loans in the period 1990-1997. First evidence suggests larger premia are associated with renegotiation prospects. This is consistent with the hypothesis that price discrimination is aimed at reducing the number of lenders and thus the expected renegotiation costs. However, larger payment discrimination is also associated with more targeted market segments and with larger loans, thus minimising borrowing costs and/or attempting to widen the circle of lending relationships in order to successfully raise the requested amount. JEL Classification: F34, G21, G33 This version: June, 2002. Later version (october 2003) with the title: "Why Borrowers Pay Premiums to Larger Lenders: Empirical Evidence from Sovereign Syndicated Loans" : http://publikationen.ub.uni-frankfurt.de/volltexte/2005/992/
A number of recent studies have suggested that activist stabilization policy rules responding to inflation and the output gap can attain simultaneously a low and stable rate of inflation as well as a high degree of economic stability. The foremost example of such a strategy is the policy rule proposed by Taylor (1993). In this paper, I demonstrate that the policy settings that would have been suggested by this rule during the 1970s, based on real-time data published by the U.S. Commerce Department, do not greatly differ from actual policy during this period. To the extent macroeconomic outcomes during this period are considered unfavorable, this raises questions regarding the usefulness of this strategy for monetary policy. To the extent the Taylor rule is believed to provide a reasonable guide to monetary policy, this finding raises questions regarding earlier critiques of monetary policy during the 1970s.