Refine
Year of publication
Document Type
- Article (31800)
- Part of Periodical (11593)
- Book (8343)
- Doctoral Thesis (5771)
- Part of a Book (3973)
- Working Paper (3402)
- Review (2949)
- Preprint (2417)
- Contribution to a Periodical (2398)
- Conference Proceeding (1775)
Language
- German (43017)
- English (30711)
- French (1060)
- Portuguese (840)
- Spanish (309)
- Croatian (302)
- Multiple languages (263)
- Italian (198)
- mis (174)
- Turkish (168)
Has Fulltext
- yes (77366) (remove)
Keywords
- Deutsch (1080)
- Literatur (875)
- taxonomy (774)
- Deutschland (553)
- Rezension (516)
- new species (459)
- Rezeption (354)
- Frankfurt <Main> / Universität (341)
- Übersetzung (330)
- Geschichte (301)
Institute
- Medizin (7874)
- Präsidium (5261)
- Physik (4992)
- Extern (2738)
- Wirtschaftswissenschaften (2724)
- Gesellschaftswissenschaften (2379)
- Biowissenschaften (2212)
- Biochemie und Chemie (1985)
- Frankfurt Institute for Advanced Studies (FIAS) (1893)
- Informatik (1735)
Der Titel der Tagung, deren Beiträge dieser Band dokumentiert, ist Programm: Jenseits der postmodernen Abschiedsstimmung, in die manche Reflexion über die Zukunft des Staates je nach theoretischer und politischer Orientierung melancholisch oder mit Schadenfreude verfällt, setzt er voraus, was eigentlich selbstverständlich sein sollte: dass es auch in Zukunft den Staat weder theoretisch noch praktisch zu verabschieden gilt. Er versucht deutlich zu machen, dass es im Jahre 1 eines neuen Jahrtausends in der Berliner Republik nicht mehr um eine Fortsetzung der allgemeinen Verunsicherung der achtziger und neunziger Jahre gehen kann. Es reicht nicht theoretisch (und manchmal – so scheint es – nur theoretisch und ohne zur Kenntnis zu nehmen, welche Rolle moderne Staaten in den Industriegesellschaften faktisch spielen) zu bezweifeln, ob der Staat der Zukunft noch souverän, national, sozial, steuernd, intervenierend etc. sein könne, um nur einige Attribute des Staates zu nennen, die Gegenstand der skeptischen Überlegungen sind. Rückblickend auf die Debatten um die Steuerungsfähigkeit des Staates, die Krise des Sozialstaats, Deregulierung, Privatisierung und Entbürokratisierung sowie Internationalisierung und Globalisierung ist es an der Zeit, Lösungswege zur Diskussion zu stellen. Nach der soziologischen Entzauberung und philosophischen Dekonstruktion des Staates bedarf es gegenwärtig einer Gegenbewegung: der praxisfähigen Rekonstruktion normativer Leitbilder. ...
Seit der Entstehung des modernen Territorialstaats mit seinem Souveränitätsanspruch und dessen Zivilisierung durch die aufklärerische Theorie vom demokratischen Rechtsstaat sind wir es gewohnt, Recht und Staat als notwendige Einheit zu betrachten. Einerseits soll der Staat Rechtsstaat sein, d.h. politische Machtausübung ist nur in den Formen des Rechts und unter Beachtung von Vorrang und Vorbehalt des Gesetzes zulässig. Ein eigenständiger Wirk- und Zuständigkeitsbereich der Politik in Form justizfreier Hoheitsakte oder besonderer Gewaltverhältnisse wird negiert. Andererseits ist Recht aber auch nur noch als "Staatsrecht", d.h. als staatlich gesetztes oder zumindest staatlich anerkanntes Recht denkbar. Autonomie im wörtlichen Sinne von Selbstgesetzgebung verblasst angesichts der Dominanz der in der Volkssouveränität verankerten Herrschaft des Gesetzes, so dass privatautonome Rechtsgestaltung durch Verträge von der Rechtsquellenlehre als irrelevant ausgeblendet und sozialautonome Normsetzung in Vereinen und Verbänden nurmehr als derivative, vom Staat abgeleitete Autonomie erklärbar wird. Im Außenverhältnis ist die Souveränität der Nationalstaaten durch das völkerrechtliche [S.62] Prinzip der gegenseitigen Nichteinmischung in innere Angelegenheiten gesichert und gleichzeitig durch das Territorialitätsprinzip begrenzt. Mit Ausnahme des politisch wenig brisanten Privatrechts, das – allerdings nur unter Vorbehalt des ordre public – im Rahmen des (nationalen) internationalen Privatrechts berücksichtigt wird, findet eine gegenseitige Anerkennung ausländischer Rechtsakte nicht statt. Internationales Recht ist nur als Völkervertragsrecht denkbar, welches im Innenverhältnis des Nationalstaates zu seinen Bürgern freilich nur als national umgesetztes Recht Wirkung entfaltet. Das so beschriebene Rechts-Staats-Konzept steht und fällt mit der Möglichkeit wirksamer Grenzziehung. Staatsgrenzen werden deshalb als quasi naturwüchsige (Berge, Flüsse, Küste) angelegt oder mit größter Sorgfalt künstlich materialisiert (Schlagbäume, Zollhäuser). Die symbolische Bedeutung der Visibilisierung von Grenzen kommt nicht zuletzt in der emotionalen Kraft zum Ausdruck, die durch deren Beseitigung – etwa durch Niederreißen von Schlagbäumen in der frühen Phase des europäischen Einigungsprozesses oder beim Fall der Berliner Mauer am Brandenburger Tor – entfesselt wird. Die Abschaffung von Grenzen bildet jedoch den Ausnahmefall und geht regelmäßig mit der Schaffung einer neuen, größeren (vereinigtes Deutschland) oder kleineren (Aufspaltung von Jugoslawien) Territorialgewalt mit Souveränitätsanspruch einher.
Die Zukunft der Privatautonomie : zur neueren Entwicklung eines gemeineuropäischen Rechtsprinzips
(2001)
Der elektronische Handel wird die Wirtschaft tiefgreifend verändern: insoweit herrscht weitgehend Einigkeit. Welche konkreten Auswirkungen sich aus der Etablierung eines elektronischen Weltmarktplatzes für die Handels- und Wettbewerbsstrukturen ergeben werden, ist hingegen unklar. Gegenwärtig konkurrieren zwei unterschiedliche Visionen: Nach einer Ansicht wird die Welt zwar etwas virtueller und vor allem effizienter, im übrigen bleibt aber alles wie es ist. Die Aufregung um die New Economy ist danach völlig übertrieben, in einer anstehenden Konsolidierungsphase werden die meisten Internet-Start-Ups vom Markt verschwinden oder von den großen etablierten Unternehmen übernommen. Wenige Global Player werden die elektronischen Weltmärkte unter sich aufteilen, wobei diese jeweils über regionale Tochterunternehmen tätig werden. Für kleine Unternehmen verbleiben allenfalls Marktnischen. Die Gegenvision beschreibt den elektronischen Handel als Welt des vollständigen Wettbewerbs. Marktzutrittsschranken werden durch das Internet weitgehend beseitigt, so dass auch kleine Unternehmen mit minimalen Investitionen Zugang zum Weltmarkt erlangen können. Standort und Größe eines Unternehmens verlieren an Bedeutung, während Flexibilität, Innovationskraft und Schnelligkeit zu alles entscheidenden Faktoren werden. Zwischen einer auf hoher Markttransparenz beruhenden neuen Verbrauchersouveränität und einem verschärften internationalen Standortwettbewerb werden den "mice" gegenüber den "elephants" die besseren Chancen eingeräumt. Wenn einem die zweite Vision aus wettbewerbspolitischer Sicht auch sympathischer erscheinen mag, so liegt die Wahrheit doch wahrscheinlich – wie so häufig – irgendwo in der Mitte (Klodt, 2001). Der elektronische Handel birgt spezifische Herausforderungen an die Rechts- und Wirtschaftspolitik. So haben die Europäische Union und der deutsche Gesetzgeber in den vergangenen Jahren eine Reihe von Maßnahmen ergriffen, die wirksame elektronische Vertragsschlüsse ermöglichen und gleichzeitig die Rechte des Verbrauchers sichern sollen (Hübner, 2001).1 Die Politik stößt allerdings auf Grenzen, wo es um inhärent globale Probleme geht (Schäfer, 1999; Engel, 2000). Wo etwa soll der institutionelle Rahmen für den grenzüberschreitenden elektronischen Handel herkommen und wer tritt den Beherrschern der elektronischen Weltmärkte entgegen? Diesen Fragen an eine als interdisziplinäre Institutionentheorie verstandene Rechts- und Wirtschaftstheorie, die im Zweifelsfalle auch ohne Staat und Politik auskommen muss, wird im folgenden nachgegangen.
Indem das Internet als Infrastruktur die Transaktionskosten grenzüberschreitender Kommunikation radikal senkt, wirkt es als Katalysator der Globalisierung der Gesellschaft1. Rechtskollisionen erhalten hierdurch in allen gesellschaftlichen Bereichen eine gesteigerte Bedeutung. Im Rahmen der allgemeinen Debatte um die Etablierung einer Global Governance kommt der Internetgovernance deshalb eine paradigmatische Rolle zu. Aus ökonomischer Sicht steht dabei die Schaffung eines Rechtsrahmens für den globalen E-Commerce im Vordergrund. Im Hinblick auf eine innovationsoffene Regulierung erscheint es in diesem Zusammenhang als reizvoll, der Frage nach einem Rechtsrahmen für den grenzüberschreitenden Business-to-Consumer-E-Commerce nachzugehen. Denn das deutsche und europäische Verbrauchervertragsrecht stehen aktuell eher für eine gegenläufige Tendenz zur Begrenzung der Privatautonomie zugunsten zwingender Vorgaben des Gesetzgebers, die auch kollisionsrechtlich gegen eine parteiautonome Rechtswahl abgesichert werden5. Während etwa das in der E-Commerce-Richtlinie verankerte Herkunftsstaatprinzip nicht nur dasWirtschaftsaufsichtsrecht,sondern auch weite Teile des Zivilrechts den Innovationskräften des Systemwettbewerbs öffnet, scheint sich das Verbrauchervertragsrecht aufgrund seines Schutzzweckes als mit innovationsoffenen Regulierungsmodellen inkompatibel zu erweisen. Ist damit auf dem Gebiet des Verbrauchervertragsrechts nicht nur der traditionelle Wettbewerb der individuellen Vertragsklauseln sowie der Klauselwerke (AGB) innerhalb einer staatlichen Privatrechtsordnung, sondern auch der institutionelle Wettbewerb zwischen den Verbraucherschutzmodellen der verschiedenen staatlichen Privatrechtsordnungen ausgeschlossen, so verbleibt als potentieller Innovationsspeicher nur der Raum der gesellschaftlichen Selbstregulierung jenseits des (staatlichen) Rechts. Vor diesem Hintergrund wird im folgenden untersucht, ob und inwieweit sich aufgrund der spezifischen Charakteristika der Internetkommunikation im Bereich des globalen E-Commerce eine Verdichtung von Phänomenen der privaten Normsetzung und der sozialen Selbstregulierung beobachten läßt, die als Emergenz eines transnationalen Verbrauchervertragsrechts interpretiert werden kann. Zunächst soll dabei eine Definition transnationalen Rechts entwickelt werden, die diesen Begriff an die spontanen Innovationskräfte der globalen Zivil(rechts)gesellschaft koppelt (II.). In einem zweiten Schritt werden dann Entstehungsbedingungen und Phänomene eines transnationalen Verbrauchervertragsrechts beleuchtet (III.). Sodann wird der Frage nach einer Konstitutionalisierung des transnationalen Verbrauchervertragsrechts nachgegangen (IV.). Der Beitrag schließt mit einem Ausblick auf potentielle Ziele und Methoden der Regulierung des Wettbewerbs transnationaler Verbraucherschutzregimes (V.).
Die Luftplethysmographie : und ihre Bedeutung für die Diagnostik der chronisch venösen Insuffizienz
(2000)
Hintergrund: Ziel der vorliegenden Arbeit war es, die im deutschsprachigen Raum nicht gebräuchliche Methode der Luftplethysmographie vorzustellen und auf ihren Stellenwert in Bezug zur Diagnostik der Chronisch Venösen Insuffizienz hin zu beleuchten. Patienten und Methoden: Es wurden insgesamt 90 Probandinnen und Probanden untersucht, hiervon waren 50 Venengesunde, 20 Sportler und weitere 20 Patienten mit klinischen Zeichen einer Chronisch Venösen Insuffizienz. Als Parameter für die Beurteilung der venösen Funktion am Unterschenkel dienten die Abflussfraktion (OF), der Venöse Füllungsindex (VFI), die Ejektionsfraktion (EF) und die Restvolumenfraktion (RVF). Ergebnisse: Die Abflussfraktion (OF) bietet keine signifikanten Unterscheidungen hinsichtlich Abflussbehinderungen, eine Thrombosediagnostik ist nicht möglich. Der Venöse Füllungsindex (VFI) bietet die Möglichkeit, zwischen gesund und pathologisch zu unterscheiden, aber nicht die der Stadieneinteilung. Die Ejektionsfraktion (EF) hat unserer Ansicht nach präventiven Charakter, der Grenzwert sollte bei 40% gesetzt werden. Die Restvolumenfraktion bietet signifikante Aussagen, aber auch hier ist eine Stadieneinteilung nur begrenzt möglich. Schlussfolgerungen: Die Luftplethysmographie stellt neben Doppler/Duplex einen weiteren Baustein in der nicht-invasiven phlebologischen Basisdiagnostik dar. Als sinnvoll sehen wir die Bestimmung des Venösen Füllungsindex und vor allem der Restvolumenfraktion an; mit Einschränkung die Ejektionsfraktion. Eine Stadieneinteilung der Chronisch Venösen Insuffizienz mittels der o.g. Parameter scheint jedoch nicht eindeutig möglich. In der Thrombosediagnostik stellt die Luftplethysmographie kein geeignetes Diagnostikum dar. In der Patientenmotivation zur Durchführung einer Kompressionsbehandlung ist die Luftplethysmographie sicher als wertvoll anzusehen. Besonders im Bereich des Unterschenkels bietet die Luftplethysmographie quantitative Messwerte. Dies stellt eine Verbesserung gegenüber einer rein qualitativen Messung in den anderen plethysmographischen Verfahren dar.
In April 2003 I commented on the European Commission’s Action Plan on a More Coherent European Contract Law [COM(2003) 68 final] and the Green Paper on the Modernisation of the 1980 Rome Convention [COM(2002) 654 final].1 While the main argument of that paper, i.e. the common neglect of the inherent interrelation between both the further harmonisation of substantive contract law by directives or through an optional European Civil Code on the one hand and the modernisation of conflict rules for consumer contracts in Art. 5 Rome Convention on the other hand, remain pressing issues, and as the German Law Journal continues its efforts in offering timely and critical analysis on consumer law issues,2 there is a variety of recent developments worth noting.
Im Kapitel 1 "Einleitung" wird aufgezeigt, wie die rasante technologische Entwicklung der Mikroelektronik nicht nur die Mikroskopie vorantreibt, sondern auch anderen, neuen Verfahren, wie z. B. dem Laser Scanning Mikroskop, zum Durchbruch verhilft. Damit verbunden ist ein Bedarf an neuen, geeigneten Messverfahren. Dazu stellt diese Arbeit ein neues, im Rahmen einer linearen Näherung arbeitendes, dreidimensionales Messverfahren vor, und demonstriert es am Beispiel des Lichtmikroskops im Hellfelddurchlichtbetrieb, wobei hier die 3. Dimension durch die Aufnahme einer Fokusserie entsteht. Im Kapitel 2 "Modellbildung" wird zuerst ein detailliertes, physikalisches Modell des experimentellen Aufbaus gebildet, um darauf aufbauend ein dreidimensionales, system-theoretisches Modell anzufertigen, anhand dessen das neue Messverfahren erarbeitet werden kann. Dabei wird auch die Berechnung der dreidimensionalen Übertragungsfunktionen des Lichtmikroskops für die drei Fälle absorbierende Objekte, Phasenobjekte und transparente Selbstleuchter beschrieben. Innerhalb des Kapitels 3 "Messverfahren" werden im Kapitel 3.1 zunächst die bekannten Verfahren skizziert. Anschließend, dies ist der Kern der Arbeit, wird im Kapitel 3.2 das neue Messverfahren beschrieben. Es verwendet als Anregung zweidimensionales Rauschen, hier ein Rauschen um eine Ebene senkrecht zur optischen Achse. Das Verfahren wird zunächst für absorbierende Objekte, anschließend auch für Phasenobjekte ausgearbeitet, und dabei experimentell demonstriert. Von zentraler Beutung ist, dass das neue Messverfahren in der Lage ist, auch die Phase der dreidimensionalen Übertragungsfunktion aus den Bildern der Rauschanregung zu berechnen, falls die Übertragung durch die Aufnahmeeinheit gewisse, häufig bei einem vernachlässigbaren Fehler vorliegende, Symmetrieeigenschaften besitzt. Es werden verschiedene Fälle von Symmetrieeigenschaften berücksichtigt, um unterschiedliche experimentelle Gegebenheiten und die drei Fälle absorbierende Objekte, Phasenobjekte und transparente Selbstleuchter abzudecken. Das Kapitel 4 "Messungen" vergleicht die mit dem neuen Messverfahren, mit einem bekannten Messverfahren und durch Berechnung ermittelten Übertragungseigenschaften auch bei Modifikationen des Strahlengangs durch Einfügen von Zentralblenden in die Pupille des Objektivs und in die Pupille des Kondensors. Die auf unterschiedlichen Wegen ermittelten Übertragungseigenschaften werden miteinander verglichen. Der Vergleich veranschaulicht die Leistungsfähigkeit des neuen Messverfahrens. Das Kapitel 5 "Die Bildgewinnung" stellt verschiedene, mehr oder weniger bekannte Ansätze zur Nutzung des vorgestellten Messverfahrens zusammen, darunter vor allem auch die Wiener-Inversfilterung.
The negative-pion multiplicity is measured for central collisions of 40Ar with KCl at eight energies from 0.36 to 1.8 GeV/nucleon and for 4He on KCl and 40Ar on BaI2 at 977 and 772 MeV/nucleon, respectively. A systematic discrepancy with a cascade-model calculation which fits proton- and pion-nucleus cross sections but omits potential-energy effects is used to derive the energy going into bulk compression of the system. A value of the incompressibility constant of K=240 MeV is extracted in a parabolic form of the nuclear-matter equation of state.
The parities of eleven J=1 levels in 208Pb were determined by nuclear resonance fluorescence scattering of linearly polarized photons. A new 1+ level at Ex=5.846 MeV with Gamma 02 / Gamma =1.2±0.4 eV was found. This level can probably be identified with the theoretically predicted isoscalar 1+ state in 208Pb. All other bound dipole states below 7 MeV with Gamma 02 / Gamma >1.5 eV have negative parity. The 1- assignment to the 4.842-MeV level is of special significance because of previous conflicting results about its parity.
The 16O ( gamma ,p0) reaction has been studied with linearly polarized bremsstrahlung photons in and below the giant E1 resonance. The parity of the absorbed radiation was determined from the observed azimuthal asymmetry of the emitted protons. Combined with unpolarized measurements the polarized results determine the proton decay amplitudes of the M1 resonance at Ex=16.2 MeV in 16O. The shape of the unpolarized 16O ( gamma ,p3) angular distribution in the giant E1 resonance was derived from the measured analyzing power. NUCLEAR REACTIONS 16O( gamma ,p), E=15-25 MeV; measured analyzing power theta =90° linearly polarized bremsstrahlung; 16O dipole levels deduced pi ; 16.2 MeV 1+ resonance deduced p0 decay amplitudes; 16O GEDR deduced p3 angular distribution.
The ultrarelativistic quantum molecular dynamics model (UrQMD) is used to study global observables in central reactions of Au+Au at sqrt[s]=200A GeV at the Relativistic Heavy Ion Collider (RHIC). Strong stopping governed by massive particle production is predicted if secondary interactions are taken into account. The underlying string dynamics and the early hadronic decoupling implies only small transverse expansion rates. However, rescattering with mesons is found to act as a source of pressure leading to additional flow of baryons and kaons, while cooling down pions.
11 262 keV 1+ state in 20Ne
(1983)
The excitation energy of the lowest 1+, T=1 state in 20Ne, which is important for parity nonconservation studies, has been determined in a photon scattering experiment to be 11 262.3 ± 1.9 keV. Values for the gamma -ray branching of this level to the ground state and to the first 2+ level in 20Ne are 84 ± 5% and 16 ± 5%, respectively. NUCLEAR REACTIONS 20Ne( gamma , gamma ), E gamma <18 MeV, bremsstrahlung; measured E gamma , gamma branching. Ne natural targets.
Proton emission in relativistic nuclear collisions is examined for events of low and high multiplicity, corresponding to large and small impact parameters. Peripheral reactions exhibit distributions of protons in agreement with spectator-participant decay modes. Central collisions of equal-size nuclei are dominated by the formation and decay of a fireball system. Central collisions of light projectiles with heavy targets exhibit an enhancement in sideward emission which is predicted by recent hydrodynamical calculations.
Angular distributions for elastic and inelastic transitions in 20Ne + 16O scattering have been measured at E(20Ne)=50 MeV. For the 0+, 2+, and 4+ members of the 20Ne ground-state rotational band, the angular distributions exhibit pronounced backward peaking characteristic of an alpha -cluster exchange mechanism. The analysis of the ground-state transition in the first-order elastic transfer model yields no satisfactory fit although microscopic cluster form factors and full recoil corrections are employed. A coupled channels calculation for the 0+, 2+, and 4+ transitions reveals very strong coupling effects, indicating that the coherent superposition of first-order optical model and distorted-wave Born-approximation amplitudes may not be an adequate model for these reactions. NUCLEAR REACTIONS 16O(20Ne, 16O) and 16O(20Ne, 20Ne), elastic and inelastic transfer; E=50MeV; measured sigma (Ef , theta ); optical model + DWBA, and CCBA analyses.
The elastic alpha scattering to backward angles has been studied for 40,42,44,48Ca between 40.7 and 72.3 MeV. The cross sections for 40Ca are larger than those for the higher isotopes up to the highest energies. They show backward increases that disappear above 50 MeV. The enhancement factor for 40Ca over 42,44Ca varies smoothly with energy. 48Ca does also show a backward cross-section enhancement over 42,44Ca. alpha -cluster rotational bands in the 44Ti compound state, four-nucleon correlations in 40Ca, and the l-dependent optical model are discussed as approaches to understand the anomaly. The rotator model appears to agree qualitatively with the experimental data. It involves rotational bands extending at least up to J=16 in 44Ti.
We present simulations with the Chemical Lagrangian Model of the Stratosphere (CLaMS) for the Arctic winter 2002/2003. We integrated a Lagrangian denitrification scheme into the three-dimensional version of CLaMS that calculates the growth and sedimentation of nitric acid trihydrate (NAT) particles along individual particle trajectories. From those, we derive the HNO3 downward flux resulting from different particle nucleation assumptions. The simulation results show a clear vertical redistribution of total inorganic nitrogen (NOy), with a maximum vortex average permanent NOy removal of over 5 ppb in late December between 500 and 550 K and a corresponding increase of NOy of over 2 ppb below about 450 K. The simulated vertical redistribution of NOy is compared with balloon observations by MkIV and in-situ observations from the high altitude aircraft Geophysica. Assuming a globally uniform NAT particle nucleation rate of 3.4·10−6 cm−3 h−1 in the model, the observed denitrification is well reproduced. In the investigated winter 2002/2003, the denitrification has only moderate impact (<=10%) on the simulated vortex average ozone loss of about 1.1 ppm near the 460 K level. At higher altitudes, above 600 K potential temperature, the simulations show significant ozone depletion through NOx-catalytic cycles due to the unusual early exposure of vortex air to sunlight.
Chlorine monoxide (ClO) plays a key role in stratospheric ozone loss processes at midlatitudes. We present two balloonborne in situ measurements of ClO conducted in northern hemisphere midlatitudes during the period of the maximum of total inorganic chlorine loading in the atmosphere. Both ClO measurements were conducted on board the TRIPLE balloon payload, launched in November 1996 in Le´on, Spain, and in May 1999 in Aire sur l’Adour, France. For both flights a ClO daylight and night time vertical profile could be derived over an altitude range of approximately 15–31 km. ClO mixing ratios are compared to model simulations performed with the photochemical box model version of the Chemical Lagrangian Model of the Stratosphere (CLaMS). Simulations along 24-h backward trajectories were performed to study the diurnal variation of ClO in the midlatitude lower stratosphere. Model simulations for the flight launched in Aire sur l’Adour 1999 show a good agreement with the ClO measurements. For the flight launched in Le´on 1996, a similar good agreement is found, except at around ~ 650 K potential temperature (~26km altitude). However, a tendency is found that for solar zenith angles greater than 86°–87° the simulated ClO mixing ratios substantially overestimate measured ClO by approximately a factor of 2.5 or more for both flights. Therefore we conclude that no indication can be deduced from the presented ClO measurements that substantial uncertainties exist in midlatitude chlorine chemistry of the stratosphere. An exception is the situation at solar zenith angles greater than 86°–87° where model simulations substantial overestimate ClO observations.
Back-angle enhancements of elastic alpha -scattering cross sections have been observed for nuclei at the ends of the 1p, 2s-1d, and f7 / 2 shells. Strong reduction of this enhancement occurs if excess neutrons enter the next open major shell. The results are discussed in terms of intermediate alpha structure.
Pion-production cross sections have been measured for the reaction 40Ar+40Ca--> pi ++X at a laboratory energy of 1.05 GeV/nucleon. A maximum in the pi + cross section occurs at mid-rapidity, which is anomalous relative to p+p and p+nucleus reactions and compared to many other heavy-ion reactions. Calculations based on cascade and thermal models fail to fit the data.
Inclusive energy spectra of protons, deuterons, and tritons were measured with a telescope of silicon and germanium detectors with a detection range for proton energies up to 200 MeV. Fifteen sets of data were taken using projectiles ranging from protons to 40Ar on targets from 27Al to 238U at bombarding energies from 240 MeV/nucleon to 2.1 GeV/nucleon. Particular attention was paid to the absolute normalization of the cross sections. For three previously reported reactions, He fragment cross sections have been corrected and are presented. To facilitate a comparison with theory the sum of nucleonic charges emitted as protons plus composite particles was estimated and is presented as a function of fragment energy per nucleon in the interval from 15 to 200 MeV/nucleon. For low-energy fragments at forward angles the protons account for only 25% of the nucleonic charges. The equal mass 40Ar plus Ca systems were examined in the center of mass. Here at 0.4 GeV/nucleon 40Ar plus Ca the proton spectra appear to be nearly isotropic in the center of mass over the region measured. Comparisons of some data with firestreak, cascade, and fluid dynamics models indicate a failure of the first and a fair agreement with the latter two. In addition, associated fast charged particle multiplicities (where the particles had energies larger than 25 MeV/nucleon) and azimuthal correlations were measured with an 80 counter array of plastic scintillators. It was found that the associated multiplicities were a smooth function of the total kinetic energy of the projectile. NUCLEAR REACTIONS U(20Ne,X), E / A=240 MeV/nucleon; U(40Ar,X), Ca(40Ar,X), U(20Ne,X), Au(20Ne,X), Ag(20Ne,X), Al(20Ne,X), U(4He,X), Al(4He,X), E / A=390 MeV/nucleon; U(40Ar,X), Ca(40Ar,X), U(20Ne,X), U(4He,X), U(p,X), E / A=1.04 GeV/nucleon; U(20Ne,X), E / A=2.1 GeV/nucleon; measured sigma (E, theta ), X=p,d,t.
Exclusive pi - and charged-particle production in collisions of Ar+KCl is studied at incident energies from 0.4 to 1.8 GeV/u. Complete disintegration of both nuclei is observed. The correlation between pi - and total charge multiplicity shows no islands of anomalous pion production. For constant numbers of proton participants the pi - multiplicity distributions are Poissons. For central collisions <n pi -> increases smoothly and to first order linearly with the c.m. energy. Disagreement with the firestreak model is found. Pacs numbers: 25.70.Hi, 24.10.Dp
Lambda 's produced in central collisions of 40Ar+KC1 at 1.8-GeV/u incident energy were detected in a streamer chamber by their charged-particle decay. For central collisions with impact parameters b<2.4 fm the Lambda production cross section is 7.6±2.2 mb. A calculation in which Lambda production occurs in the early stage of the collision qualitatively reproduces the results but underestimates the transverse momenta. An average Lambda polarization of -0.10±0.05 is observed. PACS numbers: 25.70 Bc
Pion production and charged-particle multiplicity selection in relativistic nuclear collisions
(1982)
Spectra of positive pions with energies of 15-95 MeV were measured for high energy proton, 4He, 20Ne, and 40Ar bombardments of targets of 27Al, 40Ca, 107,109Ag, 197Au, and 238U. A Si-Ge telescope was used to identify charged pions by dE / dx-E and, in addition, stopped pi + were tagged by the subsequent muon decay. In all, results for 14 target-projectile combinations are presented to study the dependence of pion emission patterns on the bombarding energy (from E / A=0.25 to 2.1 GeV) and on the target and the projectile masses. In addition, associated charged-particle multiplicities were measured in an 80-paddle array of plastic scintillators, and used to make impact parameter selections on the pion-inclusive data. NUCLEAR REACTIONS U(20Ne, pi +), E / A=250 MeV; U(40Ar, pi +), Ca(40Ar, pi +), U(20Ne, pi +), Au(20Ne, pi +), Ag(20Ne, pi +), Al(20Ne, pi +), U(4He, pi +), Al(4He, pi +). E / A=400 MeV; Ca(40Ar, pi +), U(20Ne, pi +), U(4He, pi +), U(p, pi +), E / A=1.05), GeV; U(20Ne, pi +), E / A=2.1 GeV; measured sigma (E, theta ), inclusive and selected on associated charged-particle multiplicity.
Energy spectra and angular distributions have been measured of 3He and 4He fragments emitted from Ag and U targets, bombarded with 2.7-GeV protons, and 1.05-GeV/nucleon alpha particles and 16O ions. All cross sections increase dramatically with projectile mass. No narrow peaks are found in the angular distributions or in the energy spectra.
Double-differential cross sections have been measured for high-energy p, d, t, 3He, and 4He particles emitted from uranium targets irradiated with 20Ne ions at energies of 250, 400, and 2100 MeV/nucleon and 4He ions at 400 MeV/nucleon. By using the shape and yield of the proton energy spectra, the shape and yield of the d, t, 3He, and 4He energy spectra can be deduced at all measured angles for all incident projectile energies by assuming that they are formed by a coalescence of cascade nucleons, using a model analogous to that of Butler and Pearson, and Schwarzschild and Zupancic-caron.
A simple model is proposed for the emission of nucleons with velocities intermediate between those of the target and projectile. In this model, the nucleons which are mutually swept out from the target and projectile form a hot quasiequilibrated fireball which decays as an ideal gas. The overall features of the proton-inclusive spectra from 250- and 400-MeV/nucleon 20Ne ions and 400-MeV/nucleon 4He ions interacting with uranium are fitted without any adjustable parameters.
The energy spectra of protons and light nuclei produced by the interaction of 4He and 20Ne projectiles with Al and U targets have been investigated at incident energies ranging from 0.25 to 2.1 GeV per nucleon. Single fragment inclusive spectra have been obtained at angles between 25° and 150°, in the energy range from 30 to 150 MeV/nucleon. The multiplicity of intermediate and high energy charged particles was determined in coincidence with the measured fragments. In a separate study, fragment spectra were obtained in the evaporation energy range from 12C and 20Ne bombardment of uranium. We observe structureless, exponentially decaying spectra throughout the range of studied fragment masses. There is evidence for two major classes of fragments; one with emission at intermediate temperature from a system moving slowly in the lab frame, and the other with high temperature emission from a system propagating at a velocity intermediate between target and projectile. The high energy proton spectra are fairly well reproduced by a nuclear fireball model based on simple geometrical, kinematical, and statistical assumptions. Light cluster emission is also discussed in the framework of statistical models. NUCLEAR REACTIONS U(20Ne,X), E=250 MeV/nucl.; U(20Ne,X), U(α,X) E=400 MeV/nucl.; U(20Ne,X), Al(20Ne,X), E=2.1 GeV/nucl.; measured σ(E,θ), X=p, d, t, 3He,4He. U(20Ne,X), U(α,X), E=400 MeV/nucl.; U(20Ne,X), E=2.1 GeV/nucl.; measured σ(E, θ), Li to O. U(20Ne,X), U(12C,X), E=2.1 GeV/nucl.; measured σ(E, 90°), 4He to B. Nuclear fireballs, coalescence, thermodynamics of light nuclei production.
Results are presented from a search for the decays D0 -> K min pi plus and D0 bar -> K plus pi min in a sample of 3.8x10^6 central Pb-Pb events collected with a beam energy of 158A GeV by NA49 at the CERN SPS. No signal is observed. An upper limit on D0 production is derived and compared to predictions from several models.
Particle production in central Pb+Pb collisions was studied with the NA49 large acceptance spectrometer at the CERN SPS at beam energies of 20, 30, 40, 80, and 158 GeV per nucleon. A change of the energy dependence is observed around 30A GeV for the yields of pions and strange particles as well as for the shapes of the transverse mass spectra. At present only a reaction scenario with onset of deconfinement is able to reproduce the measurements.
The transverse mass spectra of Omega hyperons and phi mesons measured recently by STAR Collaboration in Au+Au collisions at sqrt(s_NN) = 130 GeV are described within a hydrodynamic model of the quark gluon plasma expansion and hadronization. The flow parameters at the plasma hadronization extracted by fitting these data are used to predict the transverse mass spectra of J/psi and psi' mesons.
Efficient systems for the securities transaction industry : a framework for the European Union
(2003)
This paper provides a framework for the securities transaction industry in the EU to understand the functions performed, the institutions involved and the parameters concerned that shape market and ownership structure. Of particular interest are microeconomic incentives of the industry players that can be in contradiction to social welfare. We evaluate the three functions and the strategic parameters - the boundary decision, the communication standard employed and the governance implemented - along the lines of three efficiency concepts. By structuring the main factors that influence these concepts and by describing the underlying trade-offs among them, we provide insight into a highly complex industry. Applying our framework, the paper describes and analyzes three consistent systems for the securities transaction industry. We point out that one of the systems, denoted as 'contestable monopolies', demonstrates a superior overall efficiency while it might be the most sensitive in terms of configuration accuracy and thus difficult to achieve and sustain.
Despite a lot of re-structuring and many innovations in recent years, the securities transaction industry in the European Union is still a highly inefficient and inconsistently configured system for cross-border transactions. This paper analyzes the functions performed, the institutions involved and the parameters concerned that shape market and ownership structure in the industry. Of particular interest are microeconomic incentives of the main players that can be in contradiction to social welfare. We develop a framework and analyze three consistent systems for the securities transaction industry in the EU that offer superior efficiency than the current, inefficient arrangement. Some policy advice is given to select the 'best' system for the Single European Financial Market.
In recent years stock exchanges have been increasingly diversifying their operations into related business areas such as derivatives trading, post-trading services and software sales. This trend can be observed most notably among profit-oriented trading venues. While the pursuit for diversification is likely to be driven by the attractiveness of these investment opportunities, it is yet an open question whether certain integration activities are also efficient, both from a social welfare and from the exchanges' perspective. Academic contributions so far analyzed different business models primarily from the social welfare perspective, whereas there is only little literature considering their impact on the exchange itself. By employing a panel data set of 28 stock exchanges for the years 1999-2003 we seek to shed light on this topic by comparing the factor productivity of exchanges with different business models. Our findings suggest three conclusions: (1) Integration activity comes at the cost of increased operational complexity which in some cases outweigh the potential synergies between related activities and therefore leads to technical inefficiencies and lower productivity growth. (2) We find no evidence that vertical integration is more efficient and productive than other business models. This finding could contribute to the ongoing discussion about the merits of vertical integration from a social welfare perspective. (3) The existence of a strong in-house IT-competence seems to be beneficial to overcome.
Academic contributions on the demutualization of stock exchanges so far have been predominantly devoted to social welfare issues, whereas there is scarce empirical literature referring to the impact of a governance change on the exchange itself. While there is consensus that the case for demutualization is predominantly driven by the need to improve the exchange's competitiveness in a changing business environment, it remains unclear how different governance regimes actually affect stock exchange performance. Some authors propose that a public listing is the best suited governance arrangement to improve an exchange's competitiveness. By employing a panel data set of 28 stock exchanges for the years 1999-2003 we seek to shed light on this topic by comparing the efficiency and productivity of exchanges with differing governance arrangements. For this purpose we calculate in a first step individual efficiency and productivity values via DEA. In a second step we regress the derived values against variables that - amongst others - map the institutional arrangement of the exchanges in order to determine efficiency and productivity differences between (1) mutuals (2) demutualized but customer-owned exchanges and (3) publicly listed and thus at least partly outsider-owned exchanges. We find evidence that demutualized exchanges exhibit higher technical efficiency than mutuals. However, they perform relatively poor as far as productivity growth is concerned. Furthermore, we find no evidence that publicly listed exchanges possess higher efficiency and productivity values than demutualized exchanges with a customer-dominated structure. We conclude that the merits of outside ownership lie possibly in other areas such as solving conflicts of interest between too heterogeneous members.
Wir untersuchten über einen Zeitraum von 5 Jahren 40 Patienten, bei denen die Diagnose einer Achalasie nach etablierten Kriterien gesichert worden war hinsichtlich der Effektivität und der Nebenwirkungen einer pneumatischen Dilatation mit einem neuartigen "Low - Compliance" Ballonsystem. Alle Patienten wurden vor, 4 - 6 Wochen und abschließend im Mittel 28 ± 15 Monate nach der pneumatischen Dilatation untersucht. Die pneumatische Dilatation erfolgte entweder unter Verwendung eines 30 oder 35 mm Ballonsystemes, abhängig von vorher festgelegten Kriterien. Zusätzlich konnte bei 12 dieser Patienten, vor - und im Mittel 26 ± 15 Monate nach der pneumatischen Dilatation, eine ösophageale pH - Messung durchgeführt werden. Insgesamt wurden 52 Dilatationen mit einer durchschnittlichen Dilatationszeit von 4 Minuten durchgeführt. Ein initialer Erfolg nach einmaliger pneumatischer Dilatation konnte bei 35 Patienten (87,5%) erreicht werden. Die übrigen 5 Patienten sowie weitere 7 Patienten, bei denen eine Dysphagie erneut auftrat, wurden ein zweites Mal dilatiert. Die beiden Patienten, bei denen auch nach dieser zweiten Dilatation noch deutliche Symptome bestanden, wurden einer operativen Kardiomyotomie zugeführt (Operationsfrequenz = 5%). Die Effektivität der Dilatation wurde durch eine signifikante Verringerung der klinischen Symptomatik dokumentiert. So verringerte sich der Symptomen - Score (1-14 Punkte) von 9,9 ± 2,1 Punkte vor pneumatischer Dilatation, auf 4,9 ± 2,4 Punkte 4-6 Wochen nach pneumatischer Dilatation und auf 4,9 ± 2,4 Punkte bei der Abschlußuntersuchung (p< 0,01). Der Ruhedruck des unteren Ösophagussphinkters konnte durch die Dilatation von 28,3 ± 0,8 mmHg auf 16,4 ± 6,4 mmHg nach Dilatation und weiter auf 14,7 ± 5,5 mmHg bei der Abschlußuntersuchung, gesenkt werden (p< 0,01). Weder der radiologisch bestimmte Durchmesser des tubulären Ösophagus, noch die manometrisch fassbaren Kontraktionsamplituden im tubulären Ösophagus wurden durch die pneumatische Dilatation signifikant beeinflußt. Betrachtet man die Nebenwirkungen, so zeigte die Langzeit pH - Metrie eine deutliche Erhöhung der Anzahl, sowie der Dauer der gastroösophagealen Refluxepisoden, mit einem pH < 4 nach der pneumatischen Dilatation. Konträr zu diesen Ergebnissen klagte allerdings nur ein Patient über Sodbrennen. Bei einem weiteren Patienten konnte, obwohl dieser keine Beschwerden angab, endoskopisch eine Ösophagitis Grad I gesichert werden. Es wurde eine Perforation beobachtet, eine operative Versorgung des Patienten war jedoch nicht erforderlich. Diese Ergebnisse zeigen, daß die pneumatische Dilatation mit dem "Low - Compliance" System eine adäquate Behandlungsmethode der Achalasie darstellt, die sich jedoch hinsichtlich ihrer Kurz - und Langzeiteffektivität nicht wesentlich von den bisher verwendeten Systemen unterscheidet.
Die standardisierte Kopplung des sozialen Sicherungssystems an eine ‚Normalarbeitsbiographie‘ geriet in den letzten Jahren immer stärker in die Kritik. Einerseits, weil die darauf aufbauenden Leistungen auf Dauer nicht mehr aufrechterhaltbar scheinen, da die Finanzierung durch immer weniger Erwerbsarbeit und immer mehr Leistungsbezug, v.a. durch die steigende Zahl der RentnerInnen, zunehmend erschwert wird. Andererseits wurde bereits in den 80er Jahren verstärkt Kritik an der mangelnden Leistungsfähigkeit des Sicherungssystems bezüglich der Vermeidung von Armut geäußert. Das deutsche Sozialstaatsmodell gerät in die Gefahr, nicht ähnliche Wohlfahrtsniveaus zu sichern, sondern neue Konflikte zu schüren, und die Gesellschaft in Profiteure und Nonprofiteure der Marktwirtschaft zu spalten. Die Zeiten, in denen man die Möglichkeit einer Vollbeschäftigung in den westlichen Industrieländern für realistisch hielt, scheinen zu Ende zu sein. Es gelingt VertreterInnen einer Politik der Vollbeschäftigung offenbar nicht, erfolgversprechende Konzepte zu entwickeln, die die zunehmende ‚Rationalisierung‘ der Produktionsprozesse mit einer Politik der ‚Arbeit für Alle‘ in Einklang bringen könnten. So sieht es danach aus, als könnte das ‚Normalarbeitsverhältnis‘, das jahrzehntelang Ziel einer sozialstaatlichen Aufwertung der Lohnarbeit war und als Versöhnung der Klassen unter dem Kapital angesehen wurde, nicht mehr mehrheitsfähig sein. Die Risikovielfalt unterschiedlicher Lebenswege kann nicht mehr mit standardisierten Sicherungsmaßnahmen aufgefangen werden. Seit den siebziger Jahren (und verstärkt seit Mitte der 80er Jahre) gibt es breite Bevölkerungsschichten, die nicht über ein existenzsicherndes Einkommen verfügen und somit als „arm“ bezeichnet werden können. Etwa 10% der Bevölkerung in den meisten westlichen Industriestaaten verfügen nur über ein Einkommen, das unter 50% des Durchschnittsnettoeinkommens der Gesamtbevölkerung des jeweiligen Landes liegt. Bis zu 20% der Bevölkerung verfügen über ein Einkommen, das unter 60% des Durchschnittsnettoeinkommens liegt. 25 – 30% der Gesamtbevölkerung sind nach Schätzungen in der BRD zumindest kurzzeitig von Armut betroffen. Die neue Armut ist nicht nur etwa bei der steigenden Zahl von SozialhilfebezieherInnen beobachtbar, sondern auch bei der in einem festen Arbeitsverhältnis stehenden Bevölkerung. „Armut trotz Arbeit“ nennt man diesen verbreiteten Zustand der sogenannten „working poor“. Zur Zeit stehen in der Bundesrepublik ca. 40% der Armen in einem festen Arbeitsverhältnis. 4 Eine Reform des sozialen Sicherungssystems besonders hinsichtlich einer Minimalsicherung in allen Lebensbereichen wird unausweichlich werden. Hierzu gibt es verschiedene Grundsicherungsmodelle, die in der Arbeit vorgestellt werden sollen. Der belgische Wissenschaftler Philippe van Parijs beschäftigt sich seit Ende der 70er Jahre mit einem besonderen Grundeinkommensmodell, nämlich dem „unbedingten Grundeinkommen“ (unconditional basic income). Im Mittelpunkt dieses Modells steht die Rechtfertigung der Einführung eines Rechts auf ein Mindesteinkommen für alle, welches dadurch erreicht werden soll, daß alle BürgerInnen ein Einkommen vom Staat zu Verfügung gestellt bekommen, das ihnen unabhängig von Arbeitsfähigkeit, Bedürftigkeit oder Arbeitswilligkeit ausgezahlt wird. Van Parijs‘ Modell ist deshalb von besonderem Interesse, weil es eine reichhaltige Schnittstelle von Grundsicherungssystemen einerseits und Gerechtigkeitstheorien andererseits darstellt. Es eignet sich besonders als Ausgangspunkt für eine dauerhafte interdisziplinäre Arbeit zwischen Soziologie, Ökonomie und Philosophie. Ist dieses Modell eine praktikable Lösung, d.h. ist dieses Modell finanzierbar und auch gegenüber anderen Modellen attraktiv? Ist es auch unter anspruchsvollen Gerechtigkeitsaspekten normativ rechtfertigbar? Ist es also gerecht, effektiv in bezug auf das Armutsproblem und wirtschaftlich effizient? Mit diesen Fragen will sich diese Arbeit auseinandersetzen. Die Arbeit gliedert sich in vier Hauptteile. Im ersten Hauptteil (A) wird eingehend die Geschichte der Armutsentwicklung behandelt. Es wird untersucht, welche Rolle die Armut in unterschiedlichen Gesellschaftsformen und insbesondere im Rahmen der Entwicklung bis hin zur modernen Industriegesellschaft gespielt hat. Es soll geklärt werden, inwieweit verschiedene Erklärungsmodelle entwickelt wurden, und welche Modelle für welche Armutstypen aussagekräftig sind. Außerdem wird genauer auf die Verfeinerung der Ansätze innerhalb der Soziologie der Armut eingegangen, die nötig waren, um das unklare Bild einer amorphen, neuen Armut aufzuhellen. Gewonnen werden soll aus diesen Kapiteln eine möglichst umfangreiche und genaue Gegenstandsbestimmung sowie die Beantwortung der Frage, ob die neue Armut mit der Entwicklung moderner Industriestaaten systematisch verknüpft ist, oder ob unterschiedliche Armutstypen unvermittelt nebeneinanderstehende Randerscheinungen verschiedener sozialer Organisationsformen sind. Weiterhin könnten Argumente für konstruktive legitimierbare Ansätze der Armutsvermeidung im Gegensatz zu destruktiven oder schlecht legitimierbaren Ansätzen gefunden werden. 5 Im zweiten Teil (B) werden verschiedene Grundsicherungsmodelle vorgestellt. Sie werden auf ihre Finanzierbarkeit, ihre Zielgenauigkeit, und auf ihre Fähigkeiten, mit den in den vorigen Kapiteln aufgeworfenen Problemen umzugehen, geprüft. Der dritte Teil (C) behandelt die normative Rechtfertigung von Umverteilungsmaßnahmen und Grundsicherung. Es werden verschiedene Gerechtigkeitstheorien unter besonderer Berücksichtigung der gerechten Güterverteilung vorgestellt. Anhand verschiedener Autoren aus dem libertären, liberalen und analytisch-marxistischen Spektrum werden Ansprüche und Probleme der Gerechtigkeitsfragen verdeutlicht. Im weiteren Verlauf wird die Theorie von van Parijs genauer vorgestellt. Es wird versucht, anhand des vorliegenden Textmaterials alle populären normativen Einwände gegen van Parijs auszuräumen. Als Ergebnis soll ein eigenes gerechtes Grundsicherungsmodell vorgestellt werden, das sich an van Parijs‘ Theorie orientiert, aber auch Anforderungen anderer Gerechtigkeitskonzeptionen berücksichtigt. Dieses Modell wird Income-Outcome Gerechtigkeit genannt. Zum Schluß (Teil D) wird der Versuch unternommen, das Income-Outcome Modell mit den Grundsicherungsmodellen aus (B) zu verknüpfen und mit den gewonnenen Anforderungen aus (A) zu vergleichen. So sollte es gelingen, ein gerechtes und sozialpolitisch diskutierbares Grundsicherungsmodell für die Bundesrepublik Deutschland zu entwickeln. A Armut und Armutsforschung Dieser Teil beschäftigt sich mit der Entstehung und Wandlung des Armutsbegriffs, mit der modernen Definition und Messung von Armut und mit der Rolle der Armut in unterschiedlichen Gesellschaftsformen. Außerdem werden aktuelle Ansätze der und Debatten innerhalb der Armutsforschung vorgestellt. Zunächst soll die Entstehung und Verwendung des Armutsbegriffs im wissenschaftlichen Kontext grob umrissen werden. Danach folgt eine eingehende Beschäftigung mit der historischen Entwicklung des Armutsbegriffs und mit seiner Verwendung in verschiedenen Epochen von Urgesellschaften über das Mittelalter bis hin zur modernen Industriegesellschaft.
In Zeiten der Zunahme prekärer Arbeitsverhältnisse und wachsender Ungleichverteilung der Einkommen ist die Entkoppelung von Einkommen und Erwerbsarbeit aktueller denn je. Im Verlauf der Arbeit wird Schritt für Schritt aufgezeigt, wie mit einem garantierten Grundeinkommen eine Reform der sozialen Sicherungssysteme gelingen kann. Der Weg des garantierten Grundeinkommens zeigt sich als beste Lösung, wenn Armutsfreiheit, diskontinuierliche Arbeit, selbstbestimmte Beschäftigung, ein Mindesteinkommen als soziales Grundrecht und die Reform des Wohlfahrtsstaats gleichermaßen gefördert werden sollen. Dieses Buch ist besonders als Einstiegslektüre in die Themen Armutsforschung, soziale Grundsicherungssysteme und Gerechtigkeitstheorien geeignet.
This paper studies a setting in which a risk averse agent must be motivated to work on two tasks: he (1) evaluates a new project and, if adopted, (2) manages it. While a performance measure which is informative of an agent´s action is typically valuable because it can be used to improve the risk sharing of the contract, this is not necessarily the case in this two-task setting. I provide a sufficient condition under which a performance measure that is informative of the second task is worthless for contracting despite the agent being risk averse. This shows that information content is a necessary but not a sufficient condition for a performance measure to be valuable.
It is widely believed that the ideal board in corporations is composed almost entirely of independent (outside) directors. In contrast, this paper shows that some lack of board independence can be in the interest of shareholders. This follows because a lack of board independence serves as a substitute for commitment. Boards that are dependent on the incumbent CEO adopt a less aggressive CEO replacement rule than independent boards. While this behavior is inefficient ex post, it has positive ex ante incentive effects. The model suggests that independent boards (dependent boards) are most valuable to shareholders if the problem of providing appropriate incentives to the CEO is weak (severe).
Das Tetralemma des Rechts : zur Möglichkeit einer Selbstbeschränkung des Kommunikationssystems Recht
(2000)
Was tut das Recht wenn es nichts tut? In diese Frage hat Niklas Luhmann das Problem gekleidet, wie ein judicial self-restraint unter Geltung des Justizverweigerungsverbotes denkbar ist. Eine Beantwortung dieser Frage aus Sicht einer Systemtheorie, die das Recht als operativ geschlossenes Kommunikationssystem im Rahmen einer auf der Erkenntnistheorie des radikalen Konstruktivismus fußenden Theorie der Gesellschaft zu erfassen sucht (Recht als autopoietisches System), hat Luhmann zwar angerissen, aber nicht befriedigend zu Ende gedacht. Besonders interessant ist diese Frage vor dem Hintergrund der Diskussion um ein prozedurales Rechtsparadigma, welches angesichts der gegenwärtigen gesellschaftlichen Umbrüche das überkommene materiale Paradigma ablösen soll (Prozeduralisierung des Rechts). Es erscheint daher reizvoll, auf der Suche nach Antworten einen Beitrag sowohl zur Systemtheorie des Rechts als auch zu einer Theorie des prozeduralen Rechts zu leisten.
Reflexive transnational law : the privatisation of civil law and the civilisation of private law
(2002)
The author examines the emergence of a transnational private law in alternative dispute resolution bodies and private norm formulating agencies from a reflexive law perspective. After introducing the concept of reflexive law he applies the idea of law as a communicative system to the ongoing debate on the existence of a New Law Merchant or lex mercatoria. He then discusses some features of international commercial arbitration (e.g. the lack of transparency) which hinder self-reference (autopoiesis) and thus the production of legal certainty in lex mercatoria as an autonomous legal system. He then contrasts these findings with the Domain Name Dispute Resolution System, which as opposed to Lex Mercatoria was rationally planned and highly formally organised by WIPO and ICANN, and which is allowing for self-reference and thus is designed as an autopoietic legal system, albeit with a very limited scope, i.e. the interference of abusive domain name registrations with trademarks (cybersquatting). From the comparison of both examples the author derives some preliminary ideas regarding a theory of reflexive transnational law, suggesting that the established general trend of privatisation of civil law need to be accompanied by a civilisation of private law, i.e. the constitutionalization of transnational private regimes by embedding them into a procedural constitution of freedom.
Wider participation in stockholding is often presumed to reduce wealth inequality. We measure and decompose changes in US wealth inequality between 1989 and 2001, a period of considerable spread of equity culture. Inequality in equity wealth is found to be important for net wealth inequality, despite equity's limited share. Our findings show that reduced wealth inequality is not a necessary outcome of the spread of equity culture. We estimate contributions of stockholder characteristics to levels and inequality in equity holdings, and we distinguish changes in configuration of the stockholder pool from changes in the influence of given characteristics. Our estimates imply that both the 1989 and the 2001 stockholder pools would have produced higher equity holdings in 1998 than were actually observed for 1998 stockholders. This arises from differences both in optimal holdings and in financial attitudes and practices, suggesting a dilution effect of the boom followed by a cleansing effect of the downturn. Cumulative gains and losses in stockholding are shown to be significantly influenced by length of household investment horizon and portfolio breadth but, controlling for those, use of professional advice is either insignificant or counterproductive. JEL Classification: E21, G11
Die Wahrnehmung unterschiedlicher Tonhöhen ist entscheidend für die Funktion von Cochleaimplantaten bei gehörlosen Patienten. Eine Möglichkeit der Frequenzcodierung bei diesen Implantaten besteht in der elektrischen Reizung verschiedener Positionen in der Cochlea. In Hinblick auf die Implantation angeboren gehörloser Kinder stellt sich die Frage, ob auch ein naiver Cortex cochleotop gegliedert ist. Besteht die Notwendigkeit, die neuronalen Netze erst durch akustische Stimuli zu trainieren, oder ist die Ausbildung einer corticalen Tonotopie auch ohne akustische Reize möglich? Dies wurde modellhaft an kongenital gehörlosen weißen Katzen untersucht, die keinerlei Hörerfahrung besaßen. Diesen Katzen wurde unter Narkose ein humaner Reizelektrodensatz (Nucleus 22) durch das runde Fenster in die Scala tympani eingesetzt. Der Hörnerv wurde durch biphasische elektrische Impulse (200 Mikrosek. pro Phase) stimuliert. Die Reizorte in der Cochlea entsprachen bei normal hörenden Katzen apikal ungefähr 8 kHz (Implantatringe 1 und 2) und basal ungefähr 20 kHz (Ringe 7 und 8). Auf dem primären auditorischen Cortex (AI) wurden an verschiedenen Stellen mit Hilfe von Silber-Mehrfachelektroden Oberflächenpotentiale abgeleitet. Mit Hilfe selbstentwickelter Computerprogramme wurden Intensitätsfunktionen auf Basis der corticalen evozierten Potentiale mittlerer Latenz erstellt und an Sättigungsfunktionen angepaßt. Maxima und Dynamikbereiche wurden in Abhängigkeit von Cochleareizort und Cortexposition bestimmt. Ebenso wurden die Latenzen der Antworten gemessen und Schwellenfunktionen errechnet. Gehörlose weiße Katzen zeigten in akuten Versuchen bei elektrischer Reizung des Hörnervs corticale evozierte Potentiale, die in Aussehen und Latenz mit akustisch evozierten Potentialen normal hörender Katzen vergleichbar waren. Auf dem primären auditorischen Cortex fanden sich jeweils zu den Cochleareizorten korrespondierende Areale, die sich durch niedrige Schwellen, große Dynamik und große Maximalamplituden auszeichneten. Die größte Reaktion bei Elektrodenkombination 1/2 lag konstant 0.5-1.5 mm weiter caudal als bei Kombination 7/8. Die bei den gehörlosen Katzen gefundenen Beziehungen zwischen empfindlichen Cortexarealen und cochleärem Reizort sind mit denen normal hörender, akustisch stimulierter Katzen vergleichbar (z.B. Harrison et al., 1993; Rajan et al., 1993). Obwohl die untersuchten Katzen keinerlei Hörerfahrung besaßen, war bei elektrischer Reizung des Hörnervs eine deutliche corticale Tonotopie festzustellen, die sich sowohl in den Schwellenverläufen der Oberflächenpotentiale als auch im Dynamikbereich der angepaßten Intensitätsfunktionen zeigte. Eine cochleotope Organisation des primären auditorischen Cortex ist also auch ohne Hörerfahrung möglich.
Neues aus dem Archivzentrum
(1999)
"Nicht-Ereignisse", Lebensenttäuschungen aufgrund des dauerhaften Ausbleibens erwünschter Ereignisse oder des Nicht-Erreichens von bedeutsamen Lebenszielen, können zu existenziellen Krisen führen. Die Autoren haben 40 Personen befragt und an ihrem Beispiel die Bewältigungsprozesse solcher Krisen untersucht, die z.B. durch ungewollte Kinderlosigkeit oder eine ausgebliebene berufliche Karriere ausgelöst worden waren. Dabei fanden sie verschiedene Prozesshilfen: kognitive und emotionale Verarbeitungsprozesse, soziale Unterstützung, Ersatzaktivitäten und pragmatisches Handeln. Alle Befragten berichteten von Entwicklungsgewinnen aufgrund der Krise und ihrer Bewältigung.
Die Zunahme an Gewalttaten, insbesondere durch Kinder und Jugendliche, wird in der öffentlichen und pädagogischen Diskussion weithin beklagt. Zwar zeigen zeitvergleichende Analysen, dass von einer dramatischen Erhöhung der Gewalhandlungen keine Rede sein kann; eher ist die öffentliche Sensibilität für derartige Vorfälle gestiegen. Andererseits gibt es erschreckende Beispiele für besonders brutale Übergriffe, die im öffentlichen Bewusstsein naturgemäß dominieren. Eindeutig zugenommen haben in den letzten Jahren politisch motivierte Gewalttaten, insbesondere mit rechtsextremistischem Hintergrund. Doch unabhängig davon, ob und wo die Zahl der Gewalthandlungen angestiegen ist, beinhaltet jede einzelne Tat einen Angriff auf die Menschenwürde und die politische Kultur und ruft deshalb nach Gegenmaßnahmen.
We argue that the shape of the system-size dependence of strangeness production in nucleus-nucleus collisions can be understood in a picture that is based on the formation of clusters of overlapping strings. A string percolation model combined with a statistical description of the hadronization yields a quantitative agreement with the data at sqrt s_NN = 17.3 GeV. The model is also applied to RHIC energies.
A steep maximum occurs in the Wroblewski ratio between strange and non-strange quarks created in central nucleus-nucleus collisions, of about A=200, at the lower SPS energy square root s approximately equal to 7 GeV. By analyzing hadronic multiplicities within the grand canonical statistical hadronization model this maximum is shown to occur at a baryochemical potential of about 450 MeV. In comparison, recent QCD lattice calculations at finite baryochemical potential suggest a steep maximum of the light quark susceptibility, to occur at similar mu B, indicative of "critical fluctuation" expected to occur at or near the QCD critical endpoint. This endpoint hat not been firmly pinned down but should occur in the 300 MeV < mu c B < 700 MeV interval. It is argued that central collisions within the low SPS energy range should exhibit a turning point between compression/heating, and expansion/cooling at energy density, temperature and mu B close to the suspected critical point. Whereas from top SPS to RHIC energy the primordial dynamics create a turning point far above in epsilon and T, and far below in mu B. And at lower AGS energies the dynamical trajectory stays below the phase boundary. Thus, the observed sharp strangeness maximum might coincide with the critical square root s at which the dynamics settles at, or near the QCD endpoint.
Strangeness enhancement is discussed as a feature specific to relativistic nuclear collisions which create a fireball of strongly interacting matter at high energy density. At very high energy this is suggested to be partonic matter, but at lower energy it should consist of yet unknown hadronic degrees of freedom. The freeze-out of this high density state to a hadron gas can tell us about properties of fireball matter. The hadron gas at the instant of its formation captures conditions directly at the QCD phase boundary at top SPS and RHIC energy, chiefly the critical temperature and energy density.
Relativistic nucleus-nucleus collisions create a "fireball" of strongly interacting matter at high energy density. At very high energy this is suggested to be partonic matter, but at lower energy it should consist of yet unknown hadronic, perhaps coherent degrees of freedom. The freeze-out of this high density state to a hadron gas can tell us about properties of fireball matter. Date (v1): Thu, 19 Dec 2002 12:52:34 GMT (146kb) Date (revised v2): Thu, 16 Jan 2003 15:11:47 GMT (146kb) Date (revised v3): Wed, 14 May 2003 12:49:35 GMT (146kb)
With new data available from the SPS, at 40 and 80 GeV/A, I review the systematics of bulk hadron multiplicities, with prime focus on strangeness production. The classical concept of strangeness enhancement in central AA collisions is reviewed, in view of the statistical hadronization model which suggests to understand strangeness enhancement to arise chiefly in the transition from the canonical to the grand canonical version of that model. I. e. enhancement results from the fading away of canonical suppression. The model also captures the striking strangeness maximum observed in the vicinity of sqrt s approx 8 GeV. A puzzle remains in the understanding of apparent grand canonical order at the lower SPS, and at AGS energies.
Transverse momentum event-by-event fluctuations are studied within the string-hadronic model of high energy nuclear collisions, LUCIAE. Data on non-statistical pT fluctuations in p+p interactions are reproduced. Fluctuations of similar magnitude are predicted for nucleus-nucleus collisions, in contradiction to the preliminary NA49 results. The introduction of a string clustering mechanism (Firecracker Model) leads to a further, significant increase of pT fluctuations for nucleus-nucleus collisions. Secondary hadronic interactions, as implemented in LUCIAE, cause only a small reduction of pT fluctuations.
Schlaginstrumente waren, trotz ihrer großen Vielfalt und der damit verbundenen Mannigfaltigkeit der Spieltechniken und Ausdrucksmöglichkeiten, über Jahrhunderte hinweg kein Gegenstand von musikpädagogischen Bestrebungen hinsichtlich einer didaktischen Erfassung des Percussionsinstrumentariums in Form von Schlagzeugschulen. Einer der Gründe dafür könnte ein sehr verbreitetes Vorurteil gegenüber dem Schlagzeug gewesen sein, demzufolge man dieser Instrumentenfamilie jegliche musikalische Selbständigkeit absprach und in die Rolle eines schlichten Begleitinstrumentes zu verbannen versuchte. Nicht zufällig schrieb der Musiktheoretiker Sebastian Virdung in seinem 1511 erschienenen Musiktrakat Musica getutscht über die Pauken: Diese baucken alle synd wie sye wellen, die machen vil onruwe den Erben frummen alten leuten, den siechen und krancken, den andechtigen in den clöstern, die zu lesen, zu studieren und zu beten haben, und ich glaub und halt es für war, der teufel hab die erdacht und gemacht, dann gantz kein holtseligkeit noch guts daran ist, sunder ein vertempfung und rin nydertruckung aller süßen melodeyen und der gantzen Musica... Eine noch schlimmere Meinung über alle Schlaginstrumente äußerte Michael Praetorius in seinem Traktat aus dem Jahre 1619, in dem er die Pauken und andere Muscowitersche, Türckische, seltzame frembde Instrumenta als Lumpeninstrumente bezeichnete, die zur Music nicht eigentlich gehören und wo unnötig ist, darvon etwas zu schreiben oder zu erinnern. Heutzutage stellt man mit Leichtigkeit fest, daß sich die Rolle der Schlaginstrumente grundlegend geändert hat und daß sie ein wesentlicher Bestandteil aller Musikrichtungen geworden sind. Neben dem Jazz und Pop, gehört zu ihren wichtigsten Einsatzgebieten der Bereich der E – Musik, in dem von einem Schlagzeuger das Beherrschen des sog. Klassischen Schlaginstrumentariums verlangt wird. Die Berufsausbildung eines Schlagzeugspielers erfolgt fast ausnahmslos an Musikhochschulen, wo in Anlehnung an Schlagzeugschulen spieltechnische und musikalische Kenntnisse erworben werden. Im Gegensatz zu anderen Instrumentalschulwerken, die auf eine längere Entwicklungsgeschichte zurückblicken und bei denen es zur Etablierung von allgemein akzeptierten und erprobten Unterrichtswerken gekommen ist, herrscht in der Didaktik des Schlagzeugunterrichts keine einheitliche Meinung hinsichtlich der Verwendung von bestimmten Unterrichtsmaterialien. Die vorliegende Arbeit stellt daher einen der ersten Versuche dar, aktuelle Schlagzeugschulen einer kritischen Untersuchung hinsichtlich ihrer Eignung für den Einsatz im modernen praxisbezogenen Unterricht zu unterziehen und zugleich einen Überblick über die gegenwärtige Unterrichtsliteratur im Fach Klassisches Schlagzeug zu verschaffen.
Attribution and detection of anthropogenic climate change using a backpropagation neural network
(2002)
The climate system can be regarded as a dynamic nonlinear system. Thus traditional linear statistical methods are not suited to describe the nonlinearities of this system which renders it necessary to find alternative statistical techniques to model those nonlinear properties. In addition to an earlier paper on this subject (WALTER et al., 1998), the problem of attribution and detection of the observed climate change is addressed here using a nonlinear Backpropagation Neural Network (BPN). In addition to potential anthropogenic influences on climate (CO2-equivalent concentrations, called greenhouse gases, GHG and SO2 emissions) natural influences on surface air temperature (variations of solar activity, volcanism and the El Niño/Southern Oscillation phenomenon) are integrated into the simulations as well. It is shown that the adaptive BPN algorithm captures the dynamics of the climate system, i.e. global and area weighted mean temperature anomalies, to a great extent. However, free parameters of this network architecture have to be optimized in a time consuming trial-and-error process. The simulation quality obtained by the BPN exceeds the results of those from a linear model by far; the simulation quality on the global scale amounts to 84% explained variance. Additionally the results of the nonlinear algorithm are plausible in a physical sense, i.e. amplitude and time structure. Nevertheless they cover a broad range, e.g. the GHG-signal on the global scale ranges from 0.37 K to 1.65 K warming for the time period 1856-1998. However the simulated amplitudes are situated within the discussed range (HOUGHTON et al., 2001). Additionally the combined anthropogenic effect corresponds to the observed increase in temperature for the examined time period. In addition to that, the BPN succeeds with the detection of anthropogenic induced climate change on a high significance level. Therefore the concept of neural networks can be regarded as a suitable nonlinear statistical tool for modeling and diagnosing the climate system.
Mit kombinatorisch-chemischer Synthese und einem Gel-shift Test wurden niedermolekulare, peptidische RNA-Liganden gefunden. Als Target-Moleküle dienten ein 23mer RNA-Oligonukleotid (CETP-RNA) aus der Cholesterol Ester Transfer Protein mRNA und ein 27mer RNA-Oligonukleotid aus der HIV-1 Transactivation response region (TAR) RNA (delta-TAR-RNA). Zudem wurde erstmals die Methode des Phage Display angewendet, um RNA-Liganden zu finden. Die aus beiden Screeningmethoden erhaltenen Liganden wurden mit verschiedenen biophysikalischen Methoden, insbesonders der NMR-Spektroskopie auf ihre Bindungseigenschaften und mittels in vitro und in vivo-Tests auf ihre physiologische Aktivität hin untersucht. Ein 16mer Peptid der Antennapedia Homeodomäne internalisiert rasch in Zellen verschiedener Kulturen. Im Screening gefundene Peptidliganden wurde über flexible Spacer (2 beta-Ala-Einheiten) mit diesen 16mer synthetisiert. Es wurde gezeigt, daß diese Peptide so in die Zielzellen und besonders in deren Zellkern gelangen. Basische delta-TAR-RNA-Liganden zeigen diese Verhalten auch ohne Transportersequenz. Die Ergebnisse des Phage-Display-Screenings sind widersprüchlich, da die so gefundenen RNA-Liganden mit den genutzen biophysikalischen Methoden (NMR, CD, Gelelektrophorese) keine größere Affinität an die delta-TAR-RNA zeigen. Im physiologischen Test haben diese Liganden dennoch eine HIV-1 inhibitorische Aktivität gezeigt. In einer humanen Makrophagenkultur, der Wirtszelle von HIV, wurden mit den Peptiden Thr-Pro- Glu-Leu-Pro-Trp-His-NH2 und Phe-His-Ser-Val-Gln-Ala-Leu das HIV-1 Wachstum um 20- 30% inhibiert. Diese Ergebnisse widersprechen den strukturellen Bindungsinfornmationen und sind deshalb fraglich. Ein Monitoring während der Panning-Prozedur wurde nicht durchgeführt. Es wurde auch nicht überprüft, wieviel RNA wirklich immobilisiert wurde. Aufgrund der sehr geringen Substanzmengen was das nicht möglich. In einem deutlich größerem Maßstab, könnten in Zukunft strukturelle Informationen über die immobilisierte RNA gewonnen werden, z. B. mit HR-MAS-NMR-Techniken. Die im Gel-shift-Screening gefundenen delta-TAR-RNA-Liganden des Gel-shift-Screening zeigen keine HIV-1 inhibitorische Aktivität. Die gefundenen Bindungskonstanten sind allerdings um eine Größenordnung kleiner als die der natürliche Bindungsregion Tat10, welche eine HIV-1 inhibitorische Wirkung besitzt. Die im Gel-Shift-Screening gefundenen CETP-RNA/Peptid-Paare mit den stärksten Affinitäten wurden mittels NMR-Spektroskopie und CD- und Gel-shift-Experimenten charakterisiert. Die Bindungskonstanten lagen im niedrig mikromolaren Bereich. Wie in 1D Jump Return-Experimenten gezeigt wurde, verschoben sich die Signale verschiedener Liganden in Gegenwart der CETP-RNA unterschiedlich stark. Zudem konnte eine Verbreiterung der Signale der Liganden festgestellt werden. Das Peptid Lys-Tyr-Lys-Leu- Tyr-Lys-Cys-NH2 zeigte bei der CETP-RNA den stärksten Effekt mit Bindungsaffinitäten von Kd = 32±2 mikro-M (CD-Titration). In 2D NOESY Experimenten zeigt der Peptid-Ligand Kreuz-Signale zu den Iminoprotonen der CETP-RNA. Da die Sekundärstruktur der CETPRNA ein Hairpin ist, sollte das Peptid somit Kontakt zu der Doppelstrang-Region haben. Dieses Peptid zeigt zudem einen deutlichen Effekt auf das CD-Verhalten seiner CETP-RNA. Offenbar wird die Basenpaarung der Sekundärstruktur unter Peptideinfluß geschwächt. Im physiologischem Test am Tiermodell einer transgenen Maus zeigt dieser Ligand eine Erniedrigung des Cholesterolester Transfers. In Zukunft könnte das Peptid Lys-Tyr-Lys-Leu- Tyr-Lys-Cys-NH2 mit z. B. unnatürlichen Aminosäuren modifiziert werden, um eine bessere physiologische Stabilität zu erhalten und dadurch möglicherweise die physiologische Aktivität zu erhöhen. Auch eine Leitstrukturoptimierung kann durchgeführt werden.
Im Rahmen der Diskussion des globalen bzw. regionalen Klimawandels sind, neben Extremereignissen, Langfristtrends von besonderem Interesse. Doch erfordert die ausgeprägte Klimavariabilität in Zeit und Raum spezielle regionale Detailuntersuchungen. Daher wird hier eine solche Analyse für Deutschland und die Klimaelemente bodennahe Lufttemperatur sowie Niederschlag vorgestellt, mit besonderem Blick auf die jahreszeitlichen/monatlichen Besonderheiten der Trends in ausgewählten Zeitintervallen zwischen 1891 und 2000. Am auffälligsten ist dabei die sich verstärkende winterliche Temperatur- und Niederschlagszunahme, während im Sommer, unter ebenfalls Erwärmung, eine Trendwende von abnehmendem zu in den letzten Dekaden zunehmendem Niederschlag eingetreten ist.
Vielleicht hätte sich außerhalb der Fachwissenschaft niemand für das Weltklimaproblem interessiert, wären da nicht zwei brisante, miteinander gekoppelte Fakten: Die Menschheit ist hochgradig von der Gunst des Klimas abhängig. Es kann uns daher nicht gleichgültig sein, was mit unserem Klima geschieht. Und: Die Menschheit ist mehr und mehr dazu übergegangen, das Klima auch selbst zu beeinflussen. Daraus erwächst uns allen eine besondere Verantwortung. ...
Wenn sich beim Klimagipfel in Den Haag [genauer bei der nun schon 6. Vertragstaatenkonferenz zur Klimaschutzkonvention der Vereinten Nationen] nun wieder die Delegationen aus fast allen Staaten der Welt treffen, um über Klimaschutzmaßnahmen zu beraten, dann schwingt auch immer die Frage mit: Sind solche Maßnahmen wirklich notwendig? Sollen wir nicht einfach warten, bis wir mehr, ja vielleicht alles wissen? ...
Die Zunahme der Konzentration von CO2 und anderen "Treibhausgasen" in der Atmosphäre ist unzweifelhaft, und ebenso unzweifelhaft reagiert das Klima darauf. Christian-Dietrich Schönwiese, Professor für Meteorologische Umweltforschung und Klimatologie an der Universität Frankfurt am Main, sieht dringenden politischen Handlungsbedarf und plädiert gleichzeitig dafür, die Debatte rund um den Klimaschutz zu versachlichen.
Die öffentliche Klimadebatte scheint sich zu verselbständigen. Abgehoben von den Erkenntnissen der Fachwissenschaftler reden die einen von der "Klimakatastrophe", die uns demnächst mit voller Wucht treffen wird, wenn wir nicht sofort alles ganz anders machen; Panik ist ihnen das rechte Mittel, Aufmerksamkeit zu erregen. Die anderen sehen im "Klimaschwindel" einen Vorwand für Forschungsgelder und zusätzliche Steuerbelastung der Wirtschaft; ihre Strategie ist Verwirrung und Verharmlosung. Mit der Fixierung auf solche Extrempositionen werden wir den Herausforderungen der Zukunft sicherlich nicht gerecht. Höchste Zeit für eine Versachlichung und für einen klärenden Beitrag zum Verwirrspiel "Klima".
Temporal changes in the occurrence of extreme events in time series of observed precipitation are investigated. The analysis is based on a European gridded data set and a German station-based data set of recent monthly totals (1896=1899–1995=1998). Two approaches are used. First, values above certain defined thresholds are counted for the first and second halves of the observation period. In the second step time series components, such as trends, are removed to obtain a deeper insight into the causes of the observed changes. As an example, this technique is applied to the time series of the German station Eppenrod. It arises that most of the events concern extreme wet months whose frequency has significantly increased in winter. Whereas on the European scale the other seasons also show this increase, especially in autumn, in Germany an insignificant decrease in the summer and autumn seasons is found. Moreover it is demonstrated that the increase of extreme wet months is reflected in a systematic increase in the variance and the Weibull probability density function parameters, respectively.
Hadronic yields and yield ratios observed in Pb+Pb collisions at the SPS energy of 158 GeV per nucleon are known to resemble a thermal equilibrium population at T=180 +/- 10 MeV, also observed in elementary e+ + e- to hadron data at LEP. We argue that this is the universal consequence of the QCD parton to hadron phase transition populating the maximum entropy state. This state is shown to survive the hadronic rescattering and expansion phase, freezing in right after hadronization due to the very rapid longitudinal and transverse expansion that is inferred from Bose-Einstein pion correlation analysis of central Pb+Pb collisions.
Simulation of global temperature variations and signal detection studies using neural networks
(1998)
The concept of neural network models (NNM) is a statistical strategy which can be used if a superposition of any forcing mechanisms leads to any effects and if a sufficient related observational data base is available. In comparison to multiple regression analysis (MRA), the main advantages are that NNM is an appropriate tool also in the case of non-linear cause-effect relations and that interactions of the forcing mechanisms are allowed. In comparison to more sophisticated methods like general circulation models (GCM), the main advantage is that details of the physical background like feedbacks can be unknown. Neural networks learn from observations which reflect feedbacks implicitly. The disadvantage, of course, is that the physical background is neglected. In addition, the results prove to be sensitively dependent from the network architecture like the number of hidden neurons or the initialisation of learning parameters. We used a supervised backpropagation network (BPN) with three neuron layers, an unsupervised Kohonen network (KHN) and a combination of both called counterpropagation network (CPN). These concepts are tested in respect to their ability to simulate the observed global as well as hemispheric mean surface air temperature annual variations 1874 - 1993 if parameter time series of the following forcing mechanisms are incorporated : equivalent CO2 concentrations, tropospheric sulfate aerosol concentrations (both anthropogenic), volcanism, solar activity, and ENSO (all natural). It arises that in this way up to 83% of the observed temperature variance can be explained, significantly more than by MRA. The implication of the North Atlantic Oscillation does not improve these results. On a global average, the greenhouse gas (GHG) signal so far is assessed to be 0.9 - 1.3 K (warming), the sulfate signal 0.2 - 0.4 K (cooling), results which are in close similarity to the GCM findings published in the recent IPCC Report. The related signals of the natural forcing mechanisms considered cover amplitudes of 0.1 - 0.3 K. Our best NNM estimate of the GHG doubling signal amounts to 2.1K, equilibrium, or 1.7 K, transient, respectively.
The climate system can be regarded as a dynamic nonlinear system. Thus, traditional linear statistical methods fail to model the nonlinearities of such a system. These nonlinearities render it necessary to find alternative statistical techniques. Since artificial neural network models (NNM) represent such a nonlinear statistical method their use in analyzing the climate system has been studied for a couple of years now. Most authors use the standard Backpropagation Network (BPN) for their investigations, although this specific model architecture carries a certain risk of over-/underfitting. Here we use the so called Cauchy Machine (CM) with an implemented Fast Simulated Annealing schedule (FSA) (Szu, 1986) for the purpose of attributing and detecting anthropogenic climate change instead. Under certain conditions the CM-FSA guarantees to find the global minimum of a yet undefined cost function (Geman and Geman, 1986). In addition to potential anthropogenic influences on climate (greenhouse gases (GHG), sulphur dioxide (SO2)) natural influences on near surface air temperature (variations of solar activity, explosive volcanism and the El Nino = Southern Oscillation phenomenon) serve as model inputs. The simulations are carried out on different spatial scales: global and area weighted averages. In addition, a multiple linear regression analysis serves as a linear reference. It is shown that the adaptive nonlinear CM-FSA algorithm captures the dynamics of the climate system to a great extent. However, free parameters of this specific network architecture have to be optimized subjectively. The quality of the simulations obtained by the CM-FSA algorithm exceeds the results of a multiple linear regression model; the simulation quality on the global scale amounts up to 81% explained variance. Furthermore the combined anthropogenic effect corresponds to the observed increase in temperature Jones et al. (1994), updated by Jones (1999a), for the examined period 1856–1998 on all investigated scales. In accordance to recent findings of physical climate models, the CM-FSA succeeds with the detection of anthropogenic induced climate change on a high significance level. Thus, the CMFSA algorithm can be regarded as a suitable nonlinear statistical tool for modeling and diagnosing the climate system.
Die im Industriezeitalter und im globalen Mittel beobachtete Erwärmung der unteren Atmosphäre zeigt ausgeprägte regional-jahreszeitliche Besonderheiten (IPCC 2001, SCHÖNWIESE 2003, 2004). Dies gilt in noch höherem Maß für den Niederschlag (vgl. Kap. 3.1.2 und 3.1.8). Die Vermutung, dass eine solche Erwärmung zu einer Intensivierung des hydrologischen Zyklus führt, was im Prinzip zunächst richtig ist (vgl. Kap. 3.1.2), erweist sich jedoch als viel zu simpel, wenn daraus einfach auf eine generelle Niederschlagszunahme geschlossen wird. Dies gilt sogar innerhalb einer so kleinen Region wie Deutschland. Denn obwohl Deutschland im Mittel überproportional an der »globalen« Erwärmung teilnimmt (SCHÖNWIESE 2003, 2004), zeigen die Langzeitänderungen des Niederschlages im Detail ganz unterschiedliche Charakteristika. Dabei kann die hier vorgestellte Beschreibung der in Deutschland beobachteten Niederschlagtrends subregional noch wesentlich verfeinert werden, vgl. z.B. Analyse für Sachsen (FRANKE et al. 2004), da der Niederschlag eine nur geringe räumliche Repräsentanz aufweist (SCHÖNWIESE & RAPP 1997). Zeitliche Änderungen von Klimaelementen lassen sich nun in ganz unterschiedlicher Weise betrachten. Am meisten verbreitet sind lineare Trendberechnungen, wie sie auch einem Teil der hier vorliegenden Studie zugrunde liegen. Es können aber auch Trends anderer statistischer Kenngrößen als des Mittelwertes von Interesse sein, z.B. der Varianz. Häufigkeitsverteilungen, die in normierter Form Wahrscheinlichkeitsdichtefunktionen heißen, erlauben die Bestimmung solcher Kenngrößen in Form der Verteilungsparameter. Wird unter Nutzung geeigneter Verteilungen (z.B. Normal- oder Gumbelverteilung, vgl. unten Abb. 3.1.6-4) eine statistische Modellierung der jeweils betrachteten klimatologischen Zeitreihe vorgenommen, werden Aussagen über die Unter- bzw. Überschreitungswahrscheinlichkeiten bestimmter Schwellenwerte möglich, in verallgemeinerter Form für beliebige Schwellen und Zeiten (TRÖMEL 2004). Da dieser extremwertorientierte Aspekt von großer Wichtigkeit ist, soll auch ihm hier nachgegangen werden (vgl. alternativ Kap. 3.1.7 und 3.1.10). Die im Folgenden verwendeten Daten sind jeweils Monatssummen des Niederschlages 1901–2000 an 132 Stationen in Deutschland (teilweise unter Einbezug einiger Stationen in den angrenzenden Ländern), einschließlich der daraus abgeleiteten Flächenmittelwerte (sog. Rasterdaten; Quelle: Deutscher Wetterdienst, siehe u.a. MÜLLER-WESTERMEIER 2002; vgl. weiterhin RAPP & SCHÖNWIESE 1996, dort auch Hinweise zur Homogenitätsprüfung, sowie RAPP 2000).
Observed global and European spatiotemporal related fields of surface air temperature, mean-sea-level pressure and precipitation are analyzed statistically with respect to their response to external forcing factors such as anthropogenic greenhouse gases, anthropogenic sulfate aerosol, solar variations and explosive volcanism, and known internal climate mechanisms such as the El Niño-Southern Oscillation (ENSO) and the North Atlantic Oscillation (NAO). As a first step, a principal component analysis (PCA) is applied to the observed spatiotemporal related fields to obtain spatial patterns with linear independent temporal structure. In a second step, the time series of each of the spatial patterns is subject to a stepwise regression analysis in order to separate it into signals of the external forcing factors and internal climate mechanisms as listed above as well as the residuals. Finally a back-transformation leads to the spatiotemporally related patterns of all these signals being intercompared. Two kinds of significance tests are applied to the anthropogenic signals. First, it is tested whether the anthropogenic signal is significant compared with the complete residual variance including natural variability. This test answers the question whether a significant anthropogenic climate change is visible in the observed data. As a second test the anthropogenic signal is tested with respect to the climate noise component only. This test answers the question whether the anthropogenic signal is significant among others in the observed data. Using both tests, regions can be specified where the anthropogenic influence is visible (second test) and regions where the anthropogenic influence has already significantly changed climate (first test).
Zur Aktualität von Wagenscheins Schulkritik heute : das Wirklichkeits-Defizit im schulischen Lernen
(2005)
Der Magnetstein - Wozu braucht es Materialien zum Sachunterricht : Ein Gespräch mit Horst Rumpf
(2003)
Der Sachunterricht beschäftigt sich mit Sachzusammenhängen. Seine grundsätzliche didaktische Zielsetzung besteht deshalb darin, mit Sachzusammenhängen umzugehen und nicht mit Bildern oder Texten über Sachen. Mit Sachen umgehen kann entweder heißen, sie in der Realität, also außerhalb der Schule aufzusuchen oder sie in die Schule hereinzuholen. Drei Gründe legen es dennoch nahe, auch Materialien im Sachunterricht einzusetzen: 1. Es gibt Sachzusammenhänge, die nicht aufgesucht und untersucht werden können. Etwa: Einen Ameisenhaufen darf man nicht zerstören und eine Schulklasse kann man nicht bei einer Geburt zuschauen lassen. 2. Materialien können die Auseinandersetzung mit Sachzusammenhängen vorbereiten oder begleiten. Es lassen sich aus Büchern und Bildern Anregungen entnehmen, ebenso Fragen oder Aufgaben. Die Dokumentation der Sachbegegnung kann ebenfalls durch Materialien unterstützt werden. 3. Sachzusammenhänge sind komplex. Materialien können eine Reduktion der Komplexität vornehmen, indem sie das Wesentliche eines Zusammenhanges enthalten. Hier geht es vor allem um Dinge, um Geräte oder einfache Abläufe. Diese Gegenstände können - im Unterschied zur Realität - Kindern die Möglichkeit bieten, selbst handelnd mit ihnen umzugehen. Diese Ausgangsthesen beinhalten eine bestimmte Grundposition zum Sachunterricht. Die Diskussion der Materialien zum Sachunterricht kann nicht von der Didaktik des Sachunterrichts getrennt werden, denn die Art des Zuganges zu einem Sachverhalt ist entscheidend dafür, was eigentlich von der Sache gelernt wird. Deshalb soll in einem ersten Schritt an einigen Beispielen eine Kritik eines Sachunterrichts vorgenommen werden, wie er in manchen Grundschulklassen anzutreffen ist.
Der Beitrag setzt sich zunächst kritisch mit verbreiteten Konzepten zum Thema Wetter und Computer auseinander. Behauptet wird ein Widerspruch zwischen didaktischem Anspruch und didaktischer Umsetzung. Der Anspruch wird in einem handlungs- und erfahrungsorientierten Unterricht gesehen. Die Umsetzung erfolgt, so die Kritik, allerdings als eine für Grundschüler nicht verstehbare Einführung in eine Wissenschaft. Für einen handlungs- und erfahrungsorientierten Sachunterricht wird als Voraussetzung gesehen, dass die Schüler die Möglichkeit erhalten, sich öffentlich und argumentativ mit ihren Konzepten und Deutungsmustern auseinander zu setzen. Für dieses Verständnis von "offenem Unterricht" eignet sich der Computer dann, wenn er nicht als Wissensspeicher und nicht zur Dokumentation von Ergebnissen herangezogen wird, sondern als Medium der Kommunikation und zur Dokumentierung von Prozessen. Konkret wird dies dargestellt an einem Unterrichtskonzept, in dem Schüler mehrerer Schulen Wetterprognosen vornehmen, an der Realität überprüfen und begründen.