Refine
Year of publication
Document Type
- Article (31801)
- Part of Periodical (11593)
- Book (8343)
- Doctoral Thesis (5771)
- Part of a Book (3973)
- Working Paper (3402)
- Review (2949)
- Preprint (2420)
- Contribution to a Periodical (2398)
- Conference Proceeding (1775)
Language
- German (43017)
- English (30715)
- French (1060)
- Portuguese (840)
- Spanish (309)
- Croatian (302)
- Multiple languages (263)
- Italian (198)
- mis (174)
- Turkish (168)
Has Fulltext
- yes (77370) (remove)
Keywords
- Deutsch (1080)
- Literatur (875)
- taxonomy (774)
- Deutschland (553)
- Rezension (516)
- new species (459)
- Rezeption (354)
- Frankfurt <Main> / Universität (341)
- Übersetzung (330)
- Geschichte (301)
Institute
- Medizin (7874)
- Präsidium (5261)
- Physik (4995)
- Extern (2738)
- Wirtschaftswissenschaften (2724)
- Gesellschaftswissenschaften (2379)
- Biowissenschaften (2213)
- Biochemie und Chemie (1985)
- Frankfurt Institute for Advanced Studies (FIAS) (1896)
- Informatik (1738)
It is widely believed that the ideal board in corporations is composed almost entirely of independent (outside) directors. In contrast, this paper shows that some lack of board independence can be in the interest of shareholders. This follows because a lack of board independence serves as a substitute for commitment. Boards that are dependent on the incumbent CEO adopt a less aggressive CEO replacement rule than independent boards. While this behavior is inefficient ex post, it has positive ex ante incentive effects. The model suggests that independent boards (dependent boards) are most valuable to shareholders if the problem of providing appropriate incentives to the CEO is weak (severe).
Das Tetralemma des Rechts : zur Möglichkeit einer Selbstbeschränkung des Kommunikationssystems Recht
(2000)
Was tut das Recht wenn es nichts tut? In diese Frage hat Niklas Luhmann das Problem gekleidet, wie ein judicial self-restraint unter Geltung des Justizverweigerungsverbotes denkbar ist. Eine Beantwortung dieser Frage aus Sicht einer Systemtheorie, die das Recht als operativ geschlossenes Kommunikationssystem im Rahmen einer auf der Erkenntnistheorie des radikalen Konstruktivismus fußenden Theorie der Gesellschaft zu erfassen sucht (Recht als autopoietisches System), hat Luhmann zwar angerissen, aber nicht befriedigend zu Ende gedacht. Besonders interessant ist diese Frage vor dem Hintergrund der Diskussion um ein prozedurales Rechtsparadigma, welches angesichts der gegenwärtigen gesellschaftlichen Umbrüche das überkommene materiale Paradigma ablösen soll (Prozeduralisierung des Rechts). Es erscheint daher reizvoll, auf der Suche nach Antworten einen Beitrag sowohl zur Systemtheorie des Rechts als auch zu einer Theorie des prozeduralen Rechts zu leisten.
Reflexive transnational law : the privatisation of civil law and the civilisation of private law
(2002)
The author examines the emergence of a transnational private law in alternative dispute resolution bodies and private norm formulating agencies from a reflexive law perspective. After introducing the concept of reflexive law he applies the idea of law as a communicative system to the ongoing debate on the existence of a New Law Merchant or lex mercatoria. He then discusses some features of international commercial arbitration (e.g. the lack of transparency) which hinder self-reference (autopoiesis) and thus the production of legal certainty in lex mercatoria as an autonomous legal system. He then contrasts these findings with the Domain Name Dispute Resolution System, which as opposed to Lex Mercatoria was rationally planned and highly formally organised by WIPO and ICANN, and which is allowing for self-reference and thus is designed as an autopoietic legal system, albeit with a very limited scope, i.e. the interference of abusive domain name registrations with trademarks (cybersquatting). From the comparison of both examples the author derives some preliminary ideas regarding a theory of reflexive transnational law, suggesting that the established general trend of privatisation of civil law need to be accompanied by a civilisation of private law, i.e. the constitutionalization of transnational private regimes by embedding them into a procedural constitution of freedom.
Wider participation in stockholding is often presumed to reduce wealth inequality. We measure and decompose changes in US wealth inequality between 1989 and 2001, a period of considerable spread of equity culture. Inequality in equity wealth is found to be important for net wealth inequality, despite equity's limited share. Our findings show that reduced wealth inequality is not a necessary outcome of the spread of equity culture. We estimate contributions of stockholder characteristics to levels and inequality in equity holdings, and we distinguish changes in configuration of the stockholder pool from changes in the influence of given characteristics. Our estimates imply that both the 1989 and the 2001 stockholder pools would have produced higher equity holdings in 1998 than were actually observed for 1998 stockholders. This arises from differences both in optimal holdings and in financial attitudes and practices, suggesting a dilution effect of the boom followed by a cleansing effect of the downturn. Cumulative gains and losses in stockholding are shown to be significantly influenced by length of household investment horizon and portfolio breadth but, controlling for those, use of professional advice is either insignificant or counterproductive. JEL Classification: E21, G11
Die Wahrnehmung unterschiedlicher Tonhöhen ist entscheidend für die Funktion von Cochleaimplantaten bei gehörlosen Patienten. Eine Möglichkeit der Frequenzcodierung bei diesen Implantaten besteht in der elektrischen Reizung verschiedener Positionen in der Cochlea. In Hinblick auf die Implantation angeboren gehörloser Kinder stellt sich die Frage, ob auch ein naiver Cortex cochleotop gegliedert ist. Besteht die Notwendigkeit, die neuronalen Netze erst durch akustische Stimuli zu trainieren, oder ist die Ausbildung einer corticalen Tonotopie auch ohne akustische Reize möglich? Dies wurde modellhaft an kongenital gehörlosen weißen Katzen untersucht, die keinerlei Hörerfahrung besaßen. Diesen Katzen wurde unter Narkose ein humaner Reizelektrodensatz (Nucleus 22) durch das runde Fenster in die Scala tympani eingesetzt. Der Hörnerv wurde durch biphasische elektrische Impulse (200 Mikrosek. pro Phase) stimuliert. Die Reizorte in der Cochlea entsprachen bei normal hörenden Katzen apikal ungefähr 8 kHz (Implantatringe 1 und 2) und basal ungefähr 20 kHz (Ringe 7 und 8). Auf dem primären auditorischen Cortex (AI) wurden an verschiedenen Stellen mit Hilfe von Silber-Mehrfachelektroden Oberflächenpotentiale abgeleitet. Mit Hilfe selbstentwickelter Computerprogramme wurden Intensitätsfunktionen auf Basis der corticalen evozierten Potentiale mittlerer Latenz erstellt und an Sättigungsfunktionen angepaßt. Maxima und Dynamikbereiche wurden in Abhängigkeit von Cochleareizort und Cortexposition bestimmt. Ebenso wurden die Latenzen der Antworten gemessen und Schwellenfunktionen errechnet. Gehörlose weiße Katzen zeigten in akuten Versuchen bei elektrischer Reizung des Hörnervs corticale evozierte Potentiale, die in Aussehen und Latenz mit akustisch evozierten Potentialen normal hörender Katzen vergleichbar waren. Auf dem primären auditorischen Cortex fanden sich jeweils zu den Cochleareizorten korrespondierende Areale, die sich durch niedrige Schwellen, große Dynamik und große Maximalamplituden auszeichneten. Die größte Reaktion bei Elektrodenkombination 1/2 lag konstant 0.5-1.5 mm weiter caudal als bei Kombination 7/8. Die bei den gehörlosen Katzen gefundenen Beziehungen zwischen empfindlichen Cortexarealen und cochleärem Reizort sind mit denen normal hörender, akustisch stimulierter Katzen vergleichbar (z.B. Harrison et al., 1993; Rajan et al., 1993). Obwohl die untersuchten Katzen keinerlei Hörerfahrung besaßen, war bei elektrischer Reizung des Hörnervs eine deutliche corticale Tonotopie festzustellen, die sich sowohl in den Schwellenverläufen der Oberflächenpotentiale als auch im Dynamikbereich der angepaßten Intensitätsfunktionen zeigte. Eine cochleotope Organisation des primären auditorischen Cortex ist also auch ohne Hörerfahrung möglich.
Neues aus dem Archivzentrum
(1999)
"Nicht-Ereignisse", Lebensenttäuschungen aufgrund des dauerhaften Ausbleibens erwünschter Ereignisse oder des Nicht-Erreichens von bedeutsamen Lebenszielen, können zu existenziellen Krisen führen. Die Autoren haben 40 Personen befragt und an ihrem Beispiel die Bewältigungsprozesse solcher Krisen untersucht, die z.B. durch ungewollte Kinderlosigkeit oder eine ausgebliebene berufliche Karriere ausgelöst worden waren. Dabei fanden sie verschiedene Prozesshilfen: kognitive und emotionale Verarbeitungsprozesse, soziale Unterstützung, Ersatzaktivitäten und pragmatisches Handeln. Alle Befragten berichteten von Entwicklungsgewinnen aufgrund der Krise und ihrer Bewältigung.
Die Zunahme an Gewalttaten, insbesondere durch Kinder und Jugendliche, wird in der öffentlichen und pädagogischen Diskussion weithin beklagt. Zwar zeigen zeitvergleichende Analysen, dass von einer dramatischen Erhöhung der Gewalhandlungen keine Rede sein kann; eher ist die öffentliche Sensibilität für derartige Vorfälle gestiegen. Andererseits gibt es erschreckende Beispiele für besonders brutale Übergriffe, die im öffentlichen Bewusstsein naturgemäß dominieren. Eindeutig zugenommen haben in den letzten Jahren politisch motivierte Gewalttaten, insbesondere mit rechtsextremistischem Hintergrund. Doch unabhängig davon, ob und wo die Zahl der Gewalthandlungen angestiegen ist, beinhaltet jede einzelne Tat einen Angriff auf die Menschenwürde und die politische Kultur und ruft deshalb nach Gegenmaßnahmen.
We argue that the shape of the system-size dependence of strangeness production in nucleus-nucleus collisions can be understood in a picture that is based on the formation of clusters of overlapping strings. A string percolation model combined with a statistical description of the hadronization yields a quantitative agreement with the data at sqrt s_NN = 17.3 GeV. The model is also applied to RHIC energies.
A steep maximum occurs in the Wroblewski ratio between strange and non-strange quarks created in central nucleus-nucleus collisions, of about A=200, at the lower SPS energy square root s approximately equal to 7 GeV. By analyzing hadronic multiplicities within the grand canonical statistical hadronization model this maximum is shown to occur at a baryochemical potential of about 450 MeV. In comparison, recent QCD lattice calculations at finite baryochemical potential suggest a steep maximum of the light quark susceptibility, to occur at similar mu B, indicative of "critical fluctuation" expected to occur at or near the QCD critical endpoint. This endpoint hat not been firmly pinned down but should occur in the 300 MeV < mu c B < 700 MeV interval. It is argued that central collisions within the low SPS energy range should exhibit a turning point between compression/heating, and expansion/cooling at energy density, temperature and mu B close to the suspected critical point. Whereas from top SPS to RHIC energy the primordial dynamics create a turning point far above in epsilon and T, and far below in mu B. And at lower AGS energies the dynamical trajectory stays below the phase boundary. Thus, the observed sharp strangeness maximum might coincide with the critical square root s at which the dynamics settles at, or near the QCD endpoint.
Strangeness enhancement is discussed as a feature specific to relativistic nuclear collisions which create a fireball of strongly interacting matter at high energy density. At very high energy this is suggested to be partonic matter, but at lower energy it should consist of yet unknown hadronic degrees of freedom. The freeze-out of this high density state to a hadron gas can tell us about properties of fireball matter. The hadron gas at the instant of its formation captures conditions directly at the QCD phase boundary at top SPS and RHIC energy, chiefly the critical temperature and energy density.
Relativistic nucleus-nucleus collisions create a "fireball" of strongly interacting matter at high energy density. At very high energy this is suggested to be partonic matter, but at lower energy it should consist of yet unknown hadronic, perhaps coherent degrees of freedom. The freeze-out of this high density state to a hadron gas can tell us about properties of fireball matter. Date (v1): Thu, 19 Dec 2002 12:52:34 GMT (146kb) Date (revised v2): Thu, 16 Jan 2003 15:11:47 GMT (146kb) Date (revised v3): Wed, 14 May 2003 12:49:35 GMT (146kb)
With new data available from the SPS, at 40 and 80 GeV/A, I review the systematics of bulk hadron multiplicities, with prime focus on strangeness production. The classical concept of strangeness enhancement in central AA collisions is reviewed, in view of the statistical hadronization model which suggests to understand strangeness enhancement to arise chiefly in the transition from the canonical to the grand canonical version of that model. I. e. enhancement results from the fading away of canonical suppression. The model also captures the striking strangeness maximum observed in the vicinity of sqrt s approx 8 GeV. A puzzle remains in the understanding of apparent grand canonical order at the lower SPS, and at AGS energies.
Transverse momentum event-by-event fluctuations are studied within the string-hadronic model of high energy nuclear collisions, LUCIAE. Data on non-statistical pT fluctuations in p+p interactions are reproduced. Fluctuations of similar magnitude are predicted for nucleus-nucleus collisions, in contradiction to the preliminary NA49 results. The introduction of a string clustering mechanism (Firecracker Model) leads to a further, significant increase of pT fluctuations for nucleus-nucleus collisions. Secondary hadronic interactions, as implemented in LUCIAE, cause only a small reduction of pT fluctuations.
Schlaginstrumente waren, trotz ihrer großen Vielfalt und der damit verbundenen Mannigfaltigkeit der Spieltechniken und Ausdrucksmöglichkeiten, über Jahrhunderte hinweg kein Gegenstand von musikpädagogischen Bestrebungen hinsichtlich einer didaktischen Erfassung des Percussionsinstrumentariums in Form von Schlagzeugschulen. Einer der Gründe dafür könnte ein sehr verbreitetes Vorurteil gegenüber dem Schlagzeug gewesen sein, demzufolge man dieser Instrumentenfamilie jegliche musikalische Selbständigkeit absprach und in die Rolle eines schlichten Begleitinstrumentes zu verbannen versuchte. Nicht zufällig schrieb der Musiktheoretiker Sebastian Virdung in seinem 1511 erschienenen Musiktrakat Musica getutscht über die Pauken: Diese baucken alle synd wie sye wellen, die machen vil onruwe den Erben frummen alten leuten, den siechen und krancken, den andechtigen in den clöstern, die zu lesen, zu studieren und zu beten haben, und ich glaub und halt es für war, der teufel hab die erdacht und gemacht, dann gantz kein holtseligkeit noch guts daran ist, sunder ein vertempfung und rin nydertruckung aller süßen melodeyen und der gantzen Musica... Eine noch schlimmere Meinung über alle Schlaginstrumente äußerte Michael Praetorius in seinem Traktat aus dem Jahre 1619, in dem er die Pauken und andere Muscowitersche, Türckische, seltzame frembde Instrumenta als Lumpeninstrumente bezeichnete, die zur Music nicht eigentlich gehören und wo unnötig ist, darvon etwas zu schreiben oder zu erinnern. Heutzutage stellt man mit Leichtigkeit fest, daß sich die Rolle der Schlaginstrumente grundlegend geändert hat und daß sie ein wesentlicher Bestandteil aller Musikrichtungen geworden sind. Neben dem Jazz und Pop, gehört zu ihren wichtigsten Einsatzgebieten der Bereich der E – Musik, in dem von einem Schlagzeuger das Beherrschen des sog. Klassischen Schlaginstrumentariums verlangt wird. Die Berufsausbildung eines Schlagzeugspielers erfolgt fast ausnahmslos an Musikhochschulen, wo in Anlehnung an Schlagzeugschulen spieltechnische und musikalische Kenntnisse erworben werden. Im Gegensatz zu anderen Instrumentalschulwerken, die auf eine längere Entwicklungsgeschichte zurückblicken und bei denen es zur Etablierung von allgemein akzeptierten und erprobten Unterrichtswerken gekommen ist, herrscht in der Didaktik des Schlagzeugunterrichts keine einheitliche Meinung hinsichtlich der Verwendung von bestimmten Unterrichtsmaterialien. Die vorliegende Arbeit stellt daher einen der ersten Versuche dar, aktuelle Schlagzeugschulen einer kritischen Untersuchung hinsichtlich ihrer Eignung für den Einsatz im modernen praxisbezogenen Unterricht zu unterziehen und zugleich einen Überblick über die gegenwärtige Unterrichtsliteratur im Fach Klassisches Schlagzeug zu verschaffen.
Attribution and detection of anthropogenic climate change using a backpropagation neural network
(2002)
The climate system can be regarded as a dynamic nonlinear system. Thus traditional linear statistical methods are not suited to describe the nonlinearities of this system which renders it necessary to find alternative statistical techniques to model those nonlinear properties. In addition to an earlier paper on this subject (WALTER et al., 1998), the problem of attribution and detection of the observed climate change is addressed here using a nonlinear Backpropagation Neural Network (BPN). In addition to potential anthropogenic influences on climate (CO2-equivalent concentrations, called greenhouse gases, GHG and SO2 emissions) natural influences on surface air temperature (variations of solar activity, volcanism and the El Niño/Southern Oscillation phenomenon) are integrated into the simulations as well. It is shown that the adaptive BPN algorithm captures the dynamics of the climate system, i.e. global and area weighted mean temperature anomalies, to a great extent. However, free parameters of this network architecture have to be optimized in a time consuming trial-and-error process. The simulation quality obtained by the BPN exceeds the results of those from a linear model by far; the simulation quality on the global scale amounts to 84% explained variance. Additionally the results of the nonlinear algorithm are plausible in a physical sense, i.e. amplitude and time structure. Nevertheless they cover a broad range, e.g. the GHG-signal on the global scale ranges from 0.37 K to 1.65 K warming for the time period 1856-1998. However the simulated amplitudes are situated within the discussed range (HOUGHTON et al., 2001). Additionally the combined anthropogenic effect corresponds to the observed increase in temperature for the examined time period. In addition to that, the BPN succeeds with the detection of anthropogenic induced climate change on a high significance level. Therefore the concept of neural networks can be regarded as a suitable nonlinear statistical tool for modeling and diagnosing the climate system.
Mit kombinatorisch-chemischer Synthese und einem Gel-shift Test wurden niedermolekulare, peptidische RNA-Liganden gefunden. Als Target-Moleküle dienten ein 23mer RNA-Oligonukleotid (CETP-RNA) aus der Cholesterol Ester Transfer Protein mRNA und ein 27mer RNA-Oligonukleotid aus der HIV-1 Transactivation response region (TAR) RNA (delta-TAR-RNA). Zudem wurde erstmals die Methode des Phage Display angewendet, um RNA-Liganden zu finden. Die aus beiden Screeningmethoden erhaltenen Liganden wurden mit verschiedenen biophysikalischen Methoden, insbesonders der NMR-Spektroskopie auf ihre Bindungseigenschaften und mittels in vitro und in vivo-Tests auf ihre physiologische Aktivität hin untersucht. Ein 16mer Peptid der Antennapedia Homeodomäne internalisiert rasch in Zellen verschiedener Kulturen. Im Screening gefundene Peptidliganden wurde über flexible Spacer (2 beta-Ala-Einheiten) mit diesen 16mer synthetisiert. Es wurde gezeigt, daß diese Peptide so in die Zielzellen und besonders in deren Zellkern gelangen. Basische delta-TAR-RNA-Liganden zeigen diese Verhalten auch ohne Transportersequenz. Die Ergebnisse des Phage-Display-Screenings sind widersprüchlich, da die so gefundenen RNA-Liganden mit den genutzen biophysikalischen Methoden (NMR, CD, Gelelektrophorese) keine größere Affinität an die delta-TAR-RNA zeigen. Im physiologischen Test haben diese Liganden dennoch eine HIV-1 inhibitorische Aktivität gezeigt. In einer humanen Makrophagenkultur, der Wirtszelle von HIV, wurden mit den Peptiden Thr-Pro- Glu-Leu-Pro-Trp-His-NH2 und Phe-His-Ser-Val-Gln-Ala-Leu das HIV-1 Wachstum um 20- 30% inhibiert. Diese Ergebnisse widersprechen den strukturellen Bindungsinfornmationen und sind deshalb fraglich. Ein Monitoring während der Panning-Prozedur wurde nicht durchgeführt. Es wurde auch nicht überprüft, wieviel RNA wirklich immobilisiert wurde. Aufgrund der sehr geringen Substanzmengen was das nicht möglich. In einem deutlich größerem Maßstab, könnten in Zukunft strukturelle Informationen über die immobilisierte RNA gewonnen werden, z. B. mit HR-MAS-NMR-Techniken. Die im Gel-shift-Screening gefundenen delta-TAR-RNA-Liganden des Gel-shift-Screening zeigen keine HIV-1 inhibitorische Aktivität. Die gefundenen Bindungskonstanten sind allerdings um eine Größenordnung kleiner als die der natürliche Bindungsregion Tat10, welche eine HIV-1 inhibitorische Wirkung besitzt. Die im Gel-Shift-Screening gefundenen CETP-RNA/Peptid-Paare mit den stärksten Affinitäten wurden mittels NMR-Spektroskopie und CD- und Gel-shift-Experimenten charakterisiert. Die Bindungskonstanten lagen im niedrig mikromolaren Bereich. Wie in 1D Jump Return-Experimenten gezeigt wurde, verschoben sich die Signale verschiedener Liganden in Gegenwart der CETP-RNA unterschiedlich stark. Zudem konnte eine Verbreiterung der Signale der Liganden festgestellt werden. Das Peptid Lys-Tyr-Lys-Leu- Tyr-Lys-Cys-NH2 zeigte bei der CETP-RNA den stärksten Effekt mit Bindungsaffinitäten von Kd = 32±2 mikro-M (CD-Titration). In 2D NOESY Experimenten zeigt der Peptid-Ligand Kreuz-Signale zu den Iminoprotonen der CETP-RNA. Da die Sekundärstruktur der CETPRNA ein Hairpin ist, sollte das Peptid somit Kontakt zu der Doppelstrang-Region haben. Dieses Peptid zeigt zudem einen deutlichen Effekt auf das CD-Verhalten seiner CETP-RNA. Offenbar wird die Basenpaarung der Sekundärstruktur unter Peptideinfluß geschwächt. Im physiologischem Test am Tiermodell einer transgenen Maus zeigt dieser Ligand eine Erniedrigung des Cholesterolester Transfers. In Zukunft könnte das Peptid Lys-Tyr-Lys-Leu- Tyr-Lys-Cys-NH2 mit z. B. unnatürlichen Aminosäuren modifiziert werden, um eine bessere physiologische Stabilität zu erhalten und dadurch möglicherweise die physiologische Aktivität zu erhöhen. Auch eine Leitstrukturoptimierung kann durchgeführt werden.
Im Rahmen der Diskussion des globalen bzw. regionalen Klimawandels sind, neben Extremereignissen, Langfristtrends von besonderem Interesse. Doch erfordert die ausgeprägte Klimavariabilität in Zeit und Raum spezielle regionale Detailuntersuchungen. Daher wird hier eine solche Analyse für Deutschland und die Klimaelemente bodennahe Lufttemperatur sowie Niederschlag vorgestellt, mit besonderem Blick auf die jahreszeitlichen/monatlichen Besonderheiten der Trends in ausgewählten Zeitintervallen zwischen 1891 und 2000. Am auffälligsten ist dabei die sich verstärkende winterliche Temperatur- und Niederschlagszunahme, während im Sommer, unter ebenfalls Erwärmung, eine Trendwende von abnehmendem zu in den letzten Dekaden zunehmendem Niederschlag eingetreten ist.
Vielleicht hätte sich außerhalb der Fachwissenschaft niemand für das Weltklimaproblem interessiert, wären da nicht zwei brisante, miteinander gekoppelte Fakten: Die Menschheit ist hochgradig von der Gunst des Klimas abhängig. Es kann uns daher nicht gleichgültig sein, was mit unserem Klima geschieht. Und: Die Menschheit ist mehr und mehr dazu übergegangen, das Klima auch selbst zu beeinflussen. Daraus erwächst uns allen eine besondere Verantwortung. ...
Wenn sich beim Klimagipfel in Den Haag [genauer bei der nun schon 6. Vertragstaatenkonferenz zur Klimaschutzkonvention der Vereinten Nationen] nun wieder die Delegationen aus fast allen Staaten der Welt treffen, um über Klimaschutzmaßnahmen zu beraten, dann schwingt auch immer die Frage mit: Sind solche Maßnahmen wirklich notwendig? Sollen wir nicht einfach warten, bis wir mehr, ja vielleicht alles wissen? ...
Die Zunahme der Konzentration von CO2 und anderen "Treibhausgasen" in der Atmosphäre ist unzweifelhaft, und ebenso unzweifelhaft reagiert das Klima darauf. Christian-Dietrich Schönwiese, Professor für Meteorologische Umweltforschung und Klimatologie an der Universität Frankfurt am Main, sieht dringenden politischen Handlungsbedarf und plädiert gleichzeitig dafür, die Debatte rund um den Klimaschutz zu versachlichen.
Die öffentliche Klimadebatte scheint sich zu verselbständigen. Abgehoben von den Erkenntnissen der Fachwissenschaftler reden die einen von der "Klimakatastrophe", die uns demnächst mit voller Wucht treffen wird, wenn wir nicht sofort alles ganz anders machen; Panik ist ihnen das rechte Mittel, Aufmerksamkeit zu erregen. Die anderen sehen im "Klimaschwindel" einen Vorwand für Forschungsgelder und zusätzliche Steuerbelastung der Wirtschaft; ihre Strategie ist Verwirrung und Verharmlosung. Mit der Fixierung auf solche Extrempositionen werden wir den Herausforderungen der Zukunft sicherlich nicht gerecht. Höchste Zeit für eine Versachlichung und für einen klärenden Beitrag zum Verwirrspiel "Klima".
Temporal changes in the occurrence of extreme events in time series of observed precipitation are investigated. The analysis is based on a European gridded data set and a German station-based data set of recent monthly totals (1896=1899–1995=1998). Two approaches are used. First, values above certain defined thresholds are counted for the first and second halves of the observation period. In the second step time series components, such as trends, are removed to obtain a deeper insight into the causes of the observed changes. As an example, this technique is applied to the time series of the German station Eppenrod. It arises that most of the events concern extreme wet months whose frequency has significantly increased in winter. Whereas on the European scale the other seasons also show this increase, especially in autumn, in Germany an insignificant decrease in the summer and autumn seasons is found. Moreover it is demonstrated that the increase of extreme wet months is reflected in a systematic increase in the variance and the Weibull probability density function parameters, respectively.
Hadronic yields and yield ratios observed in Pb+Pb collisions at the SPS energy of 158 GeV per nucleon are known to resemble a thermal equilibrium population at T=180 +/- 10 MeV, also observed in elementary e+ + e- to hadron data at LEP. We argue that this is the universal consequence of the QCD parton to hadron phase transition populating the maximum entropy state. This state is shown to survive the hadronic rescattering and expansion phase, freezing in right after hadronization due to the very rapid longitudinal and transverse expansion that is inferred from Bose-Einstein pion correlation analysis of central Pb+Pb collisions.
Simulation of global temperature variations and signal detection studies using neural networks
(1998)
The concept of neural network models (NNM) is a statistical strategy which can be used if a superposition of any forcing mechanisms leads to any effects and if a sufficient related observational data base is available. In comparison to multiple regression analysis (MRA), the main advantages are that NNM is an appropriate tool also in the case of non-linear cause-effect relations and that interactions of the forcing mechanisms are allowed. In comparison to more sophisticated methods like general circulation models (GCM), the main advantage is that details of the physical background like feedbacks can be unknown. Neural networks learn from observations which reflect feedbacks implicitly. The disadvantage, of course, is that the physical background is neglected. In addition, the results prove to be sensitively dependent from the network architecture like the number of hidden neurons or the initialisation of learning parameters. We used a supervised backpropagation network (BPN) with three neuron layers, an unsupervised Kohonen network (KHN) and a combination of both called counterpropagation network (CPN). These concepts are tested in respect to their ability to simulate the observed global as well as hemispheric mean surface air temperature annual variations 1874 - 1993 if parameter time series of the following forcing mechanisms are incorporated : equivalent CO2 concentrations, tropospheric sulfate aerosol concentrations (both anthropogenic), volcanism, solar activity, and ENSO (all natural). It arises that in this way up to 83% of the observed temperature variance can be explained, significantly more than by MRA. The implication of the North Atlantic Oscillation does not improve these results. On a global average, the greenhouse gas (GHG) signal so far is assessed to be 0.9 - 1.3 K (warming), the sulfate signal 0.2 - 0.4 K (cooling), results which are in close similarity to the GCM findings published in the recent IPCC Report. The related signals of the natural forcing mechanisms considered cover amplitudes of 0.1 - 0.3 K. Our best NNM estimate of the GHG doubling signal amounts to 2.1K, equilibrium, or 1.7 K, transient, respectively.
The climate system can be regarded as a dynamic nonlinear system. Thus, traditional linear statistical methods fail to model the nonlinearities of such a system. These nonlinearities render it necessary to find alternative statistical techniques. Since artificial neural network models (NNM) represent such a nonlinear statistical method their use in analyzing the climate system has been studied for a couple of years now. Most authors use the standard Backpropagation Network (BPN) for their investigations, although this specific model architecture carries a certain risk of over-/underfitting. Here we use the so called Cauchy Machine (CM) with an implemented Fast Simulated Annealing schedule (FSA) (Szu, 1986) for the purpose of attributing and detecting anthropogenic climate change instead. Under certain conditions the CM-FSA guarantees to find the global minimum of a yet undefined cost function (Geman and Geman, 1986). In addition to potential anthropogenic influences on climate (greenhouse gases (GHG), sulphur dioxide (SO2)) natural influences on near surface air temperature (variations of solar activity, explosive volcanism and the El Nino = Southern Oscillation phenomenon) serve as model inputs. The simulations are carried out on different spatial scales: global and area weighted averages. In addition, a multiple linear regression analysis serves as a linear reference. It is shown that the adaptive nonlinear CM-FSA algorithm captures the dynamics of the climate system to a great extent. However, free parameters of this specific network architecture have to be optimized subjectively. The quality of the simulations obtained by the CM-FSA algorithm exceeds the results of a multiple linear regression model; the simulation quality on the global scale amounts up to 81% explained variance. Furthermore the combined anthropogenic effect corresponds to the observed increase in temperature Jones et al. (1994), updated by Jones (1999a), for the examined period 1856–1998 on all investigated scales. In accordance to recent findings of physical climate models, the CM-FSA succeeds with the detection of anthropogenic induced climate change on a high significance level. Thus, the CMFSA algorithm can be regarded as a suitable nonlinear statistical tool for modeling and diagnosing the climate system.
Die im Industriezeitalter und im globalen Mittel beobachtete Erwärmung der unteren Atmosphäre zeigt ausgeprägte regional-jahreszeitliche Besonderheiten (IPCC 2001, SCHÖNWIESE 2003, 2004). Dies gilt in noch höherem Maß für den Niederschlag (vgl. Kap. 3.1.2 und 3.1.8). Die Vermutung, dass eine solche Erwärmung zu einer Intensivierung des hydrologischen Zyklus führt, was im Prinzip zunächst richtig ist (vgl. Kap. 3.1.2), erweist sich jedoch als viel zu simpel, wenn daraus einfach auf eine generelle Niederschlagszunahme geschlossen wird. Dies gilt sogar innerhalb einer so kleinen Region wie Deutschland. Denn obwohl Deutschland im Mittel überproportional an der »globalen« Erwärmung teilnimmt (SCHÖNWIESE 2003, 2004), zeigen die Langzeitänderungen des Niederschlages im Detail ganz unterschiedliche Charakteristika. Dabei kann die hier vorgestellte Beschreibung der in Deutschland beobachteten Niederschlagtrends subregional noch wesentlich verfeinert werden, vgl. z.B. Analyse für Sachsen (FRANKE et al. 2004), da der Niederschlag eine nur geringe räumliche Repräsentanz aufweist (SCHÖNWIESE & RAPP 1997). Zeitliche Änderungen von Klimaelementen lassen sich nun in ganz unterschiedlicher Weise betrachten. Am meisten verbreitet sind lineare Trendberechnungen, wie sie auch einem Teil der hier vorliegenden Studie zugrunde liegen. Es können aber auch Trends anderer statistischer Kenngrößen als des Mittelwertes von Interesse sein, z.B. der Varianz. Häufigkeitsverteilungen, die in normierter Form Wahrscheinlichkeitsdichtefunktionen heißen, erlauben die Bestimmung solcher Kenngrößen in Form der Verteilungsparameter. Wird unter Nutzung geeigneter Verteilungen (z.B. Normal- oder Gumbelverteilung, vgl. unten Abb. 3.1.6-4) eine statistische Modellierung der jeweils betrachteten klimatologischen Zeitreihe vorgenommen, werden Aussagen über die Unter- bzw. Überschreitungswahrscheinlichkeiten bestimmter Schwellenwerte möglich, in verallgemeinerter Form für beliebige Schwellen und Zeiten (TRÖMEL 2004). Da dieser extremwertorientierte Aspekt von großer Wichtigkeit ist, soll auch ihm hier nachgegangen werden (vgl. alternativ Kap. 3.1.7 und 3.1.10). Die im Folgenden verwendeten Daten sind jeweils Monatssummen des Niederschlages 1901–2000 an 132 Stationen in Deutschland (teilweise unter Einbezug einiger Stationen in den angrenzenden Ländern), einschließlich der daraus abgeleiteten Flächenmittelwerte (sog. Rasterdaten; Quelle: Deutscher Wetterdienst, siehe u.a. MÜLLER-WESTERMEIER 2002; vgl. weiterhin RAPP & SCHÖNWIESE 1996, dort auch Hinweise zur Homogenitätsprüfung, sowie RAPP 2000).
Observed global and European spatiotemporal related fields of surface air temperature, mean-sea-level pressure and precipitation are analyzed statistically with respect to their response to external forcing factors such as anthropogenic greenhouse gases, anthropogenic sulfate aerosol, solar variations and explosive volcanism, and known internal climate mechanisms such as the El Niño-Southern Oscillation (ENSO) and the North Atlantic Oscillation (NAO). As a first step, a principal component analysis (PCA) is applied to the observed spatiotemporal related fields to obtain spatial patterns with linear independent temporal structure. In a second step, the time series of each of the spatial patterns is subject to a stepwise regression analysis in order to separate it into signals of the external forcing factors and internal climate mechanisms as listed above as well as the residuals. Finally a back-transformation leads to the spatiotemporally related patterns of all these signals being intercompared. Two kinds of significance tests are applied to the anthropogenic signals. First, it is tested whether the anthropogenic signal is significant compared with the complete residual variance including natural variability. This test answers the question whether a significant anthropogenic climate change is visible in the observed data. As a second test the anthropogenic signal is tested with respect to the climate noise component only. This test answers the question whether the anthropogenic signal is significant among others in the observed data. Using both tests, regions can be specified where the anthropogenic influence is visible (second test) and regions where the anthropogenic influence has already significantly changed climate (first test).
Zur Aktualität von Wagenscheins Schulkritik heute : das Wirklichkeits-Defizit im schulischen Lernen
(2005)
Der Magnetstein - Wozu braucht es Materialien zum Sachunterricht : Ein Gespräch mit Horst Rumpf
(2003)
Der Sachunterricht beschäftigt sich mit Sachzusammenhängen. Seine grundsätzliche didaktische Zielsetzung besteht deshalb darin, mit Sachzusammenhängen umzugehen und nicht mit Bildern oder Texten über Sachen. Mit Sachen umgehen kann entweder heißen, sie in der Realität, also außerhalb der Schule aufzusuchen oder sie in die Schule hereinzuholen. Drei Gründe legen es dennoch nahe, auch Materialien im Sachunterricht einzusetzen: 1. Es gibt Sachzusammenhänge, die nicht aufgesucht und untersucht werden können. Etwa: Einen Ameisenhaufen darf man nicht zerstören und eine Schulklasse kann man nicht bei einer Geburt zuschauen lassen. 2. Materialien können die Auseinandersetzung mit Sachzusammenhängen vorbereiten oder begleiten. Es lassen sich aus Büchern und Bildern Anregungen entnehmen, ebenso Fragen oder Aufgaben. Die Dokumentation der Sachbegegnung kann ebenfalls durch Materialien unterstützt werden. 3. Sachzusammenhänge sind komplex. Materialien können eine Reduktion der Komplexität vornehmen, indem sie das Wesentliche eines Zusammenhanges enthalten. Hier geht es vor allem um Dinge, um Geräte oder einfache Abläufe. Diese Gegenstände können - im Unterschied zur Realität - Kindern die Möglichkeit bieten, selbst handelnd mit ihnen umzugehen. Diese Ausgangsthesen beinhalten eine bestimmte Grundposition zum Sachunterricht. Die Diskussion der Materialien zum Sachunterricht kann nicht von der Didaktik des Sachunterrichts getrennt werden, denn die Art des Zuganges zu einem Sachverhalt ist entscheidend dafür, was eigentlich von der Sache gelernt wird. Deshalb soll in einem ersten Schritt an einigen Beispielen eine Kritik eines Sachunterrichts vorgenommen werden, wie er in manchen Grundschulklassen anzutreffen ist.
Der Beitrag setzt sich zunächst kritisch mit verbreiteten Konzepten zum Thema Wetter und Computer auseinander. Behauptet wird ein Widerspruch zwischen didaktischem Anspruch und didaktischer Umsetzung. Der Anspruch wird in einem handlungs- und erfahrungsorientierten Unterricht gesehen. Die Umsetzung erfolgt, so die Kritik, allerdings als eine für Grundschüler nicht verstehbare Einführung in eine Wissenschaft. Für einen handlungs- und erfahrungsorientierten Sachunterricht wird als Voraussetzung gesehen, dass die Schüler die Möglichkeit erhalten, sich öffentlich und argumentativ mit ihren Konzepten und Deutungsmustern auseinander zu setzen. Für dieses Verständnis von "offenem Unterricht" eignet sich der Computer dann, wenn er nicht als Wissensspeicher und nicht zur Dokumentation von Ergebnissen herangezogen wird, sondern als Medium der Kommunikation und zur Dokumentierung von Prozessen. Konkret wird dies dargestellt an einem Unterrichtskonzept, in dem Schüler mehrerer Schulen Wetterprognosen vornehmen, an der Realität überprüfen und begründen.
Der Titel der vorliegenden Arbeit, „Interkulturelles Lernen im Sachunterricht – Historie und Perspektiven“, verweist knapp und prägnant darauf, dass in historischer Perspektive Konzeptionen eines Lernens an und über Kultur im Sachunterricht nachgezeichnet und eine weiterführende Perspektive aufgezeigt werden soll. Für diese Rekonstruktion werden auch andere Diskurse als der fachdidaktische einbezogen. In der Auseinandersetzung mit den Bearbeitungsmustern, die die Fachdidaktik in Reaktion auf die kulturelle Pluralisierung der Schülerschaft konzipierte, wurde schnell deutlich, dass eine solche Einbeziehung benachbarter Disziplinen nahezu unumgänglich ist, denn der sachunterrichtliche Diskurs um kulturelle Pluralität zeichnet sich aus durch zahlreiche Anleihen, vor allem aus den Allgemeinen Erziehungswissenschaften. Der erste Teil der Arbeit skizziert den Verlauf der Diskussion um Erziehung und Migration in der Allgemeinen Erziehungswissenschaft. Zur Strukturierung der Darstellung werden dabei mit der „Ausländerpädagogik“, der „Kritik an der Ausländerpädagogik“ und der „Interkulturellen Pädagogik“ drei prägnante Phasen der Theoriebildung differenziert. Dieses Kapitel zeigt die Genese zentraler Begriffe und Konzeptionen in der Debatte um Erziehung und Migration auf, die auch von der Fachdidaktik des Sachunterrichts aufgegriffen wurden. Ihm kommt somit im Rahmen der Arbeit vor allem eine Orientierungsfunktion zu. Das dritte Kapitel fokussiert den fachdidaktischen Diskurs des Sachunterrichts zur Thematik und zeigt auf, welche Aspekte aus der Allgemeinen Erziehungswissenschaft in den fachdidaktischen Diskurs transponiert wurden und welche ausgeblendet blieben. Die fachdidaktische Analyse wird anhand prominenter Termini, die den Sachunterrichtsdiskurs der vergangenen Jahre prägten, strukturiert. Unterschieden werden die Phasen „Heimatkunde“, „wissenschaftsorientierter Sachunterricht“, „lebensweltorientierter Sachunterricht“ und „neuere heimatkundliche Ansätze“. Entlang dieser Phasen der Theoriebildung werden unterschiedliche Modi des fachdidaktischen Umgangs mit kultureller Pluralität nachgezeichnet. In dieser Betrachtung stellt sich insbesondere die mangelnde Reflexion, der in Konzepten eines Lernens an und über Kultur zugrunde gelegten Prämissen, insbesondere des Kulturbegriffs, als Defizit der fachdidaktischen Auseinandersetzung dar. Dieses Defizit wird im vierten Kapitel der Arbeit, das eine weiterführende Perspektive für ein Lernen an und über Kulturen für den Sachunterricht aufzeigt, thematisch. Das Kapitel stellt Bezüge zu erkenntnistheoretischen und kulturtheoretischen Diskursen her und diskutiert Kulturbegriffe als wirkmächtige Begriffe. Vor diesem Hintergrund werden Aspekte der im zweiten Teil der Arbeit ermittelten diskursanalytischen Defizite der fachdidaktischen Auseinandersetzung mit kultureller Pluralisierung, nochmals aufgegriffen und kritisch reflektiert. Insbesondere die in didaktischen Entwürfen zu einem Lernen an und über Kulturen zugrunde gelegten Prämissen, wie etwa die der stringenten Polarität von „Eigenem“ und „Fremdem“, erweisen sich in dieser Betrachtung als problematisch. Im Anschluss daran wird unter Bezugnahme auf die Schriften von Wolfgang Welsch ein aktuelles kulturtheoretisches Konzept, das Konzept der Transkulturalität, skizziert und im Hinblick darauf befragt, wie sich die Interaktion differenter Kulturen bzw. kulturelle Differenz im Lichte dieses Konzepts darstellt. Im Zentrum der Betrachtung steht dabei die Frage, welche Perspektiven für ein Lernen an und über Kultur dieses Konzept bietet. Zum Abschluss der Arbeit, wird basierend auf Welschs kulturtheoretischen und erkenntnistheoretischen Überlegungen, das Konzept eines Lernens konturiert, das auf einen kompetenten Umgang mit Pluralität – nicht mehr nur im Hinblick auf die Anwesenheit verschiedener Ethnien in Gesellschaft und Schulklassen – zielt und diskutiert, ob der Sachunterricht aufgrund seiner fachspezifischen Kontur potentiell einen Beitrag zu einem solchen Lernen leisten könnte. Zentrale Bereiche dieser Arbeit bestehen in der Rekonstruktion des fachdidaktischen und des erziehungswissenschaftlichen Diskurses um Erziehung und Migration. Solche Unterfangen stellen immer das Bemühen dar, eine Praxis, die unter bestimmten Bedingungen mehr oder weniger unsystematisch entstand, in Form einer Retrospektive zu systematisieren und zu reflektieren. Insofern handelt es sich stets um einen methodisierten Versuch einer Bilanz, der die tatsächliche Praxis verkürzt und lediglich schematisch erfasst. Die hier gezeichneten Verläufe der erziehungswissenschaftlichen und der fachdidaktischen Auseinandersetzung mit kultureller Pluralität sind folglich kein Abbild der Diskussionsverläufe, sondern lediglich ein möglicher Rekonstruktionsversuch. Ich hoffe, die zentralen Begriffe und Konzeptionen scharf herausgestellt und dennoch einen – im Sinne Serres – „unscharfen“ Text verfasst zu haben, der zur Reflexion über „grobschlächtige“ Begriffe und deren unreflektierte Tradierung anregt und mit dem perspektivischen Ausblick einen Ausschnitt der Freiheit andeutet, die sich ergeben könnte, wenn die Boxhandschuhe einmal abgelegt werden.
A selection of recent data referring to Pb+Pb collisions at the SPS CERN energy of 158 GeV per nucleon is presented which might describe the state of highly excited strongly interacting matter both above and below the deconfinement to hadronization (phase) transition predicted by lattice QCD. A tentative picture emerges in which a partonic state is indeed formed in central Pb+Pb collisions which hadronizes at about T = 185 MeV, and expands its volume more than tenfold, cooling to about 120 MeV before hadronic collisions cease. We suggest further that all SPS collisions, from central S+S onward, reach that partonic phase, the maximum energy density increasing with more massive collision systems.
Die wissenschaftliche Praxis des Sachunterrichts ist von der Praxis des schulischen Sachunterrichts systematisch unterscheidbar. Der wissenschaftliche Sachunterricht und seine Didaktik besteht als ein eigenständiger Diskurs, der sich nicht aus einer Zusammensetzung der verschiedenen Fachwissenschaften und deren Didaktiken begründet. Er hat die Aufgabe den Bildungsauftrag des Sachunterrichts in Schule und Universität zu bestimmten. Der wissenschaftliche Diskurs des Sachunterrichts bewegt sich im Kontext der diskursiven Zusammenhänge über Kind, Sache und Welt. ...
Dem Leser einer Reihe von Veröffentlichungen zur Didaktik des Sachunterrichts fällt auf, dass es bei aller Vielzahl von Differenzen und Differenzierungen zu didaktischen und pädagogischen Fragen so etwas wie eine - mehr implizite als explizite - Übereinstimmung in der Konstitution des Gegenstandes "Sache" zu geben scheint. Die "Sache" ist danach das zu Erkennende; der Sachunterricht soll entsprechend den Schüler in die Lage versetzen, zu erkennen, was gegeben ist. Aus einer jüngeren erkenntnistheoretischen Sicht lässt sich die Haltbarkeit dieser Grundannahme bezweifeln. Im Durchgang durch einige Konzepte zur Didaktik des Sachunterrichts soll dieser Zweifel begründet werden.
Configuration, simulation and visualization of simple biochemical reaction-diffusion systems in 3D
(2004)
Background In biological systems, molecules of different species diffuse within the reaction compartments and interact with each other, ultimately giving rise to such complex structures like living cells. In order to investigate the formation of subcellular structures and patterns (e.g. signal transduction) or spatial effects in metabolic processes, it would be helpful to use simulations of such reaction-diffusion systems. Pattern formation has been extensively studied in two dimensions. However, the extension to three-dimensional reaction-diffusion systems poses some challenges to the visualization of the processes being simulated. Scope of the Thesis The aim of this thesis is the specification and development of algorithms and methods for the three-dimensional configuration, simulation and visualization of biochemical reaction-diffusion systems consisting of a small number of molecules and reactions. After an initial review of existing literature about 2D/3D reaction-diffusion systems, a 3D simulation algorithm (PDE solver), based on an existing 2D-simulation algorithm for reaction-diffusion systems written by Prof. Herbert Sauro, has to be developed. In a succeeding step, this algorithm has to be optimized for high performance. A prototypic 3D configuration tool for the initial state of the system has to be developed. This basic tool should enable the user to define and store the location of molecules, membranes and channels within the reaction space of user-defined size. A suitable data structure has to be defined for the representation of the reaction space. The main focus of this thesis is the specification and prototypic implementation of a suitable reaction space visualization component for the display of the simulation results. In particular, the possibility of 3D visualization during course of the simulation has to be investigated. During the development phase, the quality and usability of the visualizations has to be evaluated in user tests. The simulation, configuration and visualization prototypes should be compliant with the Systems Biology Workbench to ensure compatibility with software from other authors. The thesis is carried out in close cooperation with Prof. Herbert Sauro at the Keck Graduate Institute, Claremont, CA, USA. Due to this international cooperation the thesis will be written in English.
Rund 300.000 der 500.000 Juden in Deutschland im Jahre 1933 lebte seit vielen Hundert Jahren als deutsche Staatsbürger in Deutschland. Manche, vielleicht sogar viele dieser 300.000 Mitglieder der Jüdischen Gemeinde wollten nicht Jiddisch sprechen und singen. Warum also Lieder auf Jiddisch? 1. Da waren ja noch die anderen 200.000 Juden in Deutschland. 100.000 davon hatten keinen deutschen Paß, die anderen 100.000 wurden zum größten Teil erst nach dem ersten Weltkrieg deutsche Staatsbürger. Hier war die Jiddische Sprache noch lebendig! Und gegen diese sogenannten »Ostjuden« richtete sich schon vor der Nazi-Zeit der Haß der Rechten, gegen die angeblichen »Wirtschaftsasylanten«. 2. Auch die 300.000 anderen deutschen Staatsbürger jüdischen Glaubens merkten in der Nazi-Zeit, daß die Nazis jeden Juden verfolgten, ob er das eiserne Kreuz als Orden aus dem l. Weltkrieg hatte oder die Narben von Pogromen in Polen. Als schließlich als erster großer Schlag zur Deportation der Juden aus Deutschland im Oktober 1938 50.000 polnische Juden aus Deutschland nach Polen ausgewiesen wurden - ein fürchterliches Drama, über das noch viel zu wenig bekannt ist -, da waren es die deutschen Juden, die wie Brüder und Schwestern Essen und Trinken an die Deportationszüge brachten und halfen, wo sie konnten. 3. Über 90 % der 6 Millionen ermordeten Juden sprachen Jiddisch. Der jüdische Widerstand fand vor allem in Osteuropa statt. Die jiddischen Lieder gegen die Nazis, die Lieder des Aufstandes im Warschauer Ghetto, sind heute die Lieder der Juden in der ganzen Welt, ob sie in den USA, in Israel oder in Deutschland leben. Die zehn hier zusammengestellten Lieder wurden im Rahmen der Arbeitsgemeinschaft gegen den Antisemitismus/Frankfurt am Main mit Schülerinnen und Schülern verschiedener Schulen eingeübt und auf Straßenveranstaltungen sowie im Rahmen von Veranstaltungen für jüdische Emigrantinnen und Emigranten vorgeführt. Die Musik steht bei uns im Rahmen von umfassenderen Aufgabenstellungen, die am Ende des Liederbuches beschrieben werden. Diese Broschüre soll anregen, daß Schülerinnen und Schüler anderer Schulen und in anderen Städten ähnliche Projekte initiieren. »Jiddische Lieder gegen die Nazis« - der Titel der Broschüre hat bewußt eine Doppelbedeutung. Zum einen wird auf den ursprünglichen Zusammenhang dieser Lieder verwiesen, zum anderen aber sind diese Lieder auch heute eine Anklage gegen verbrecherisch wirkende, geschichtsfälschende nazistischen Kräfte, die mit Mord, Brandstiftung und Lügen gegen alle jene vorgehen, die sie als »undeutsch« herausgreifen. Es waren und sind Lieder gegen die Nazis.
Thema dieser Stellungnahme ist der spezielle Teil der "Abschlussarbeit" für alle Hauptschulen Frankfurts des Staatlichen Schulamts (Arbeitsgruppe Q ... Q soll für Qualität stehen), der sich im Teil Gesellschaftslehre in Teil 10 bis 15 mit der Nazi-Zeit beschäftigt. Die grundsätzliche Problematik zentralstaatlicher Tests - hier zunächst für alle 24 Hauptschulen in FFM - das ist ein eigenes Thema. Sinn, Chancen und Gefahren solcher Zentraltestverfahren ohne Kenntnis der jeweiligen Lerngruppen sollen hier nicht diskutiert werden.
Erscheint halbjährl. www.widerstreit-sachunterricht.de ist als online-Zeitschrift seit Januar 2003 verfügbar. Die Zeitschrift bietet Raum für Diskussionsbeiträge, die Veröffentlichung von Forschungsergebnissen sowie für grundlegende, theoretische Überlegungen zum Sachunterricht in Form von Artikeln.
Bossing in den Schulen
(2000)
Die vorliegende Fallstudie zu den Anciens Combattants in Diébougou ist das Ergebnis einer Lehrforschung der Johann Wolfgang Goethe-Universität, Frankfurt am Main, Institut für Historische Ethnologie, die vom 24. August 2001 bis zum 16. Dezember 2001 unter der Leitung von Prof. Carola Lentz, und der Betreuung durch Dr. Katja Werthmann, Dr. Richard Kuba sowie in Kooperation mit der Universität von Ouagadougou (Département d’Histoire et d’Archéologie) in Burkina Faso stattfand. Allen genannten Personen und Institutionen sei an dieser Stelle ausdrücklich gedankt. Die Fallstudie reichte ich im Februar 2004 als Magister-Abschlussarbeit am Fachbereich Geschichtswissenschaften (Historische Ethnologie) der Johann Wolfgang Goethe-Universität, Frankfurt am Main, bei Prof. Carola Lentz und Prof. Karl-Heinz Kohl ein. Der Großteil der ursprünglich im Anhang der Magisterarbeit enthaltenen Dokumente, Karten und Photos wurde ausgelagert, und der Text erfuhr eine geringfügige Überarbeitung. Im Anschluss an einen vierwöchigen Dioula-Sprachkurs in Bobo-Dioulasso folgte die dreimonatige Erhebungsphase in Diébougou, sowohl Hauptort (chef-lieu) der Provinz Bougouriba im Südwesten Burkina Fasos, Markt- als auch Verwaltungszentrum mit 11 637 Einwohnern (siehe http://www.ambf.bf/f_mairies.html). Interethnische Beziehungen, Siedlungsgeschichte und Bodenrecht waren die übergeordneten Themen des ethnologischen Teilprojekts A9 des Sonderforschungsbereichs 268 "Kulturentwicklung und Sprachgeschichte im Naturraum Westafrikanische Savanne" der Johann Wolfgang Goethe-Universität, der die Durchführung der Lehrforschung finanziell unterstützte, und dem ich gleichsam danken möchte.
Hervorgegangen ursprünglich aus der Ratsbibliothek und der Bibliothek des Barfüßerklosters, ist die spätere Entwicklung der Bibliothek eng verbunden mit der bürgerlich-demokratischen Geschichte Deutschlands vom Zeitalter der Französischen Revolution bis zur Errichtung des Zweiten Kaiserreichs. Die Frankfurter Bibliothek ist die Bürgerliche unter Adligen: In ihrer 500-jährigen Geschichte war sie nie Adelsbibliothek, nie Hofbibliothek, als Bibliothek einer ehemals reichsunmittelbaren freien Stadt repräsentiert sie vor allem das historische Erbe der stadtbürgerlichen Kultur des Reiches. ...
Die Senckenbergische Bibliothek hat ihren Ursprung in der Stiftung des Frankfurter Stadtarztes Johann Christian Senckenberg (1707–1772) von 1763. Senckenberg investierte während seines Lebens einen erheblichen Anteil seines Einkommens in den Aufbau seiner Privatbibliothek. So kaufte er alle wesentlichen Neuerscheinungen seiner Zeit und erwarb auch viele ältere Werke antiquarisch. Gegen Ende seines Lebens umfasste seine Bibliothek etwa 10.000 Bände. Diese Bibliothek ging an das von ihm gestiftete Senckenbergische Medizinische Institut. Schon bald nach seinem Tod wurde ein großer Teil der nicht-medizinischen Literatur versteigert. Der medizinische Bestand wurde in der Folgezeit stark erweitert. ...
Bestandserhaltung
(2004)
Das kulturelle Gedächtnis ist bedroht. Rund 60 Millionen Bücher stehen in den deutschen Bibliotheken vor dem endgültigen Aus, sofern sie nicht, und möglichst in absehbarer Zeit, einer restauratorischen Behandlung zugeführt werden können. Auch in Hessen haben die Bibliotheken die Gefahr erkannt, Abhilfe ist technisch möglich, aber teuer. Das zur Lösung anstehende Problem ist grundsätzlich in der Voraussetzung begründet, dass alle in der Buchgeschichte bisher genutzten Informationsträger und vorzüglich solche aus organischem Material prinzipiell dem physischen Verfall ausgesetzt sind. Insbesondere beim Papier sind dabei besondere Substanzen von Bedeutung. Die seit Beginn der Industrialisierung bis in die Gegenwart hinein weit überwiegende Herstellungsweise von Papier unter starker Verwendung von Holzstoff hinterlässt im Produkt Substanzen von realem oder potentiellem Säurecharakter, die unter der Einwirkung von Licht und Wärme einen progressiven Abbau bewirken. Weiter verstärkt wird das Problem durch Bestandteile, die das Papier und andere Buchmaterialien aus der verschmutzten Luft aufnehmen. Ein dritter Faktor ist die mechanische Energie aus der im Lauf gerade der letzten Jahrzehnte erheblich verstärkten Benutzung in herkömmlichen und neuen Formen, so etwa bei der Fernleihe und den damit verbundenen Kopiervorgängen. ...
Viele Bibliotheken, Archive und Museen stehen vor der gewaltigen Herausforderung, das schriftliche Kulturgut, das sie aufbewahren und für die Öffentlichkeit bereithalten, sachgerecht zu erhalten. Schriftquellen sind Zeugnisse menschlichen Denkens und Handelns; schon aufgrund dieser Eigenschaft erwächst eine besondere Aufgabe hinsichtlich ihrer Erhaltung für künftige Generationen. Doch sind Handschriften, alte Drucke und Inkunabeln – die Druckerzeugnisse aus der Frühzeit des Buchdruckes vor 1500 – aufgrund ihres oft empfindlichen Charakters besonderen Belastungen ausgesetzt. Substanzschäden und Gebrauchsspuren haben schon heute ein dramatisches Ausmaß erreicht. Nach repräsentativen Untersuchungen sind etwa 20% – 40% der Sammlungsbestände bereits geschädigt oder akut gefährdet. Der Prozess des physischen Verfalls, der unter anderem durch Wasser, Schimmel- und Insektenbefall, unsachgemäße Aufbewahrung, fortschreitende Alterungsprozesse oder die altersbedingte chemische Veränderung der Papiersubstanz verursacht wird, schreitet langsam aber stetig voran. Für die Verantwortlichen heute führt dies zu einem Wettlauf mit der Zeit. Häufig wird diese Gefahr erst zu spät erkannt, so dass wichtige Bestandteile unseres kulturellen Gedächtnisses in Gefahr sind, unwiderbringbar verloren zu gehen. So besteht für Schriftquellen aller Art derzeit eine gesteigerte Gefährdungssituation; es droht der Verlust bedeutender kulturgeschichtlicher Werte. Vor einigen Jahren hat sich erfreulicherweise die Kulturstiftung der Länder dieser Problematik des Erhaltens von mobilem Kulturgut mit großem Interesse angenommen. Die sieben großen wissenschaftlichen Bibliotheken des Landes Hessen und die Stadt- und Universitätsbibliothek Frankfurt, die allesamt über bedeutende Bestände an Handschriften und kostbaren alten Drucken verfügen, haben sich daraufhin bereit erklärt, an einem gemeinsamen Projekt zur Sicherung ihrer Bestände mitzuwirken. Die Sparkassen-Kulturstiftung Hessen- Thüringen hat die Initiative der Konferenz der Direktorinnen und Direktoren der wissenschaftlichen Bibliotheken Hessen (HDK) aufgegriffen, die sich der Problematik des vom Verfall bedrohten Bibliotheksgutes und der Bestandserhaltung angenommen hat. Die Initiatoren und Herausgeber dieser Broschüre wollen der Öffentlichkeit bewusst machen, welche Gefahr den bedeutenden Handschriften, Autographen und Altbeständen in unserem Lande droht, wenn ihre Substanz nicht mehr gesichert werden kann. Daher haben die Bibliotheksleiterinnen und -leiter ausgewählte Stücke mit erläuternden Texten versehen, um beispielhaft Problemstellungen und Lösungsansätze vorzustellen. Sie verbinden dies mit einer Einführung in die gegenwärtigen Aufgaben- und Sammlungsschwerpunkte der Bibliotheken und ihre Geschichte. So wird ein plastischer Eindruck von diesen Institutionen vermittelt, die mehr sind als Ausleihstationen und Datenvermittler. Die Bedeutung von gefährdetem Bibliotheksgut für unser Wissen über die Vergangenheit aufzuzeigen, ist eine der wesentlichen Aufgaben dieses Buches, mit dem beispielhaft einige der besonders bedrohten Bücher und Handschriften vorgestellt werden. Der kritische Zustand der beschriebenen Stücke mit ihrem Sanierungsbedarf soll daran erinnern, dass sich in den Bibliotheken Einzigartiges befindet, ohne dessen Existenz unser Wissen um die Geschichte unseres Landes und des menschlichen Denkens letztendlich verloren gehen würde. Es ist daher von außerordentlich großer Bedeutung, sich der ständigen Aufgabe des Erhaltes zu stellen. Es fehlen nicht nur in der heutigen Zeit aufgrund der immensen Restaurierungskosten und der stark angespannten wirtschaftlichen Situation der öffentlichen Haushalte ausreichende Mittel, um den gesamten Restaurierungsbedarf der hessischen Bibliotheken abdecken zu können. Den wissenschaftlichen Bibliotheken will diese Schrift deshalb ein Medium sein, das Problem der Bestandserhaltung von Handschriften und Rara konkret vorzustellen, und zur Übernahme von Restaurierungspatenschaften animieren. Insofern sind alle beteiligten Bibliotheken, und nicht nur diese, auf die Hilfe vieler einzelner Paten angewiesen, die einen wichtigen Beitrag zu dem existenziellen Anliegen der Initiatoren leisten können. Die Bibliothekare der beteiligten Institutionen wollen mit ihren fachkundigen Beiträgen möglichst viele Buchpaten ansprechen und über diese Publikation einen Zugang zu den Aufgaben ihrer Häuser vermitteln. Es bleibt zu wünschen, dass diese Broschüre ihren Beitrag leistet, dass Bibliotheken, Archive und Museen auch weiterhin ihren kulturhistorischen Auftrag erfüllen können und Orte der generationsübergreifenden Verständigung und Auseinandersetzung bleiben. Schon jetzt Dank an alle diejenigen, die Buchpaten werden wollen.
We investigate the sensitivity of several observables to the density dependence of the symmetry potential within the microscopic transport model UrQMD (ultrarelativistic quantum molecular dynamics model). The same systems are used to probe the symmetry potential at both low and high densities. The influence of the symmetry potentials on the yields of pi-, pi+, the pi-/pi+ ratio, the n/p ratio of free nucleons and the t/3He ratio are studied for neutron-rich heavy ion collisions (208Pb+208Pb, 132Sn+124Sn, 96Zr+96Zr) at E_b=0.4A GeV. We find that these multiple probes provides comprehensive information on the density dependence of the symmetry potential.
DCD – a novel plant specific domain in proteins involved in development and programmed cell death
(2005)
Background: Recognition of microbial pathogens by plants triggers the hypersensitive reaction, a common form of programmed cell death in plants. These dying cells generate signals that activate the plant immune system and alarm the neighboring cells as well as the whole plant to activate defense responses to limit the spread of the pathogen. The molecular mechanisms behind the hypersensitive reaction are largely unknown except for the recognition process of pathogens. We delineate the NRP-gene in soybean, which is specifically induced during this programmed cell death and contains a novel protein domain, which is commonly found in different plant proteins.
Results: The sequence analysis of the protein, encoded by the NRP-gene from soybean, led to the identification of a novel domain, which we named DCD, because it is found in plant proteins involved in d evelopment and c ell d eath. The domain is shared by several proteins in the Arabidopsis and the rice genomes, which otherwise show a different protein architecture. Biological studies indicate a role of these proteins in phytohormone response, embryo development and programmed cell by pathogens or ozone.
Conclusion: It is tempting to speculate, that the DCD domain mediates signaling in plant development and programmed cell death and could thus be used to identify interacting proteins to gain further molecular insights into these processes.
Background: Osteoarthritis (OA) has a high prevalence in primary care. Conservative, guideline orientated approaches aiming at improving pain treatment and increasing physical activity, have been proven to be effective in several contexts outside the primary care setting, as for instance the Arthritis Self management Programs (ASMPs). But it remains unclear if these comprehensive evidence based approaches can improve patients' quality of life if they are provided in a primary care setting. Methods/Design: PraxArt is a cluster randomised controlled trial with GPs as the unit of randomisation. The aim of the study is to evaluate the impact of a comprehensive evidence based medical education of GPs on individual care and patients' quality of life. 75 GPs were randomised either to intervention group I or II or to a control group. Each GP will include 15 patients suffering from osteoarthritis according to the criteria of ACR. In intervention group I GPs will receive medical education and patient education leaflets including a physical exercise program. In intervention group II the same is provided, but in addition a practice nurse will be trained to monitor via monthly telephone calls adherence to GPs prescriptions and advices and ask about increasing pain and possible side effects of medication. In the control group no intervention will be applied at all. Main outcome measurement for patients' QoL is the GERMAN-AIMS2-SF questionnaire. In addition data about patients' satisfaction (using a modified EUROPEP-tool), medication, health care utilization, comorbidity, physical activity and depression (using PHQ-9) will be retrieved. Measurements (pre data collection) will take place in months I-III, starting in June 2005. Post data collection will be performed after 6 months. Discussion: Despite the high prevalence and increasing incidence, comprehensive and evidence based treatment approaches for OA in a primary care setting are neither established nor evaluated in Germany. If the evaluation of the presented approach reveals a clear benefit it is planned to provide this GP-centred interventions on a much larger scale.
Diese Arbeit befaßt sich mit der Untersuchung des Emissionsverhaltens der K+ Mesonen in Au + Au Stößen bei 1AGeV. Das Experiment wurde mit dem Kaonen-Spektrometer KaoS am Schwerionensynchrotron SIS der Gesellschaft für Schwerionenforschung GSI durchgeführt. In zahlreichen Untersuchungen relativistischer Schwerionenstöße wurde eine kollektive Bewegung der Nukleonen beobachtet, die als Fluß bezeichnet wird. In nichtzentralen Stößen wurde u. a. ein gerichteter Seitwärtsfluß der Nukleonen und Pionen in die Reaktionsebene und ein elliptischer Fluß senkrecht zur Reaktionsebene gefunden. Der Nukleonenfluß wird als hydrodynamischer Effekt aufgrund des Drucks in der Reaktionszone interpretiert, während der Fluß der Pionen als Folge der Endzustandswechselwirkung verstanden wird. In dieser Arbeit wurde die Untersuchung des Flußphänomens auf die positiv geladenen Kaonen erweitert. Die Kaonen, die ein seltsames Quark enthalten, stellen eine besonders geeignete Sonde der dichten Reaktionszone dar. Wegen der großen mittleren freien Wegläange sollten die Kaonen fast ungestört nach außen emittiert werden. Zur Untersuchung dieser Fragestellung wurden die spektralen Energieverteilungen und die azimutalen Winkelverteilungen studiert. Um diese in Abhängigkeit von der Zentralität der Schwerionenreaktion zu untersuchen, wurden Stoßparameter und Anzahl der partizipierenden Nukleonen experimentell bestimmt. Dazu wurden die mit dem Großwinkel-Hodoskop bestimmte Teilchenmultiplizität und die mit dem Kleinwinkel-Hodoskop bestimmte Ladungssumme der Projektilspektatoren benutzt. Der Nachweis der Projektilspektatoren mit dem Kleinwinkel-Hodoskop erlaubt ferner, für jedes Ereignis die Reaktionsebene einer Schwerionenreaktion zu bestimmen. Der Emissionswinkel der positiv geladenen Kaonen konnte dann in Bezug auf die Reaktionsebene untersucht werden. Die Energiespektren der Kaonen, die bei Theta CM ~ 90° und Theta QCM ~ 130° in zentralen Stößen gemessen wurden, haben einen Steigungsparameter (Temperatur) von etwa 87MeV. Die transversalen kinetischen Energiespektren bei vier verschiedenen Rapiditätsintervallen in zentralen Stößen haben einen Steigungsparameter von etwa 90MeV und keine Abweichung von einem thermischen Verhalten innerhalb der Meßgenauigkeit. Die Ausbeuten sind dagegen unterschiedlich. Bei R¨uckw ¨ artswinkel bzw. bei Targetrapidität wurde ein fast doppelt so großer Wirkungsquerschnitt wie bei Schwerpunktrapidität gemessen. Die polare Winkelverteilung der positiv geladenen Kaonen ist also nicht isotrop. In dieser Arbeit konnte zum ersten Mal der elliptische Fluß der positiv geladenen Kaonen nachgewiesen werden: K+ Mesonen werden bevorzugt senkrecht zur Reaktionsebene emittiert. Die azimutale Anisotropie ist am stärksten für periphere und semi-zentrale Stöße und im Bereich der Schwerpunktrapidität. Im Gegensatz zu den Pionen zeigt die Stärke der Anisotropie keine Abhängigkeit vom Transversalimpuls. Während im Falle der Pionen die azimutale Anisotropie auf die Abschattung durch die Spektatoren zurückgeführt wird, kann dieser Effekt die Kaonendaten nicht erklären, da die K+ Mesonen eine große mittlere freie Weglänge in Kernmaterie besitzen. Mikroskopische Transportmodellrechnungen wie RBUU und QMD können den elliptischen Fluß der Kaonen nur unter Berücksichtigung des Kaon-Nukleon-Potentials im nuklearen Medium wiedergeben [Li97, Wan98a]. Als ein anderer experimenteller Hinweis auf das KN-Potential im Medium wurde das Verschwinden des gerichteten Seitwärtsflusses der Kaonen vorhergesagt [Li95a]. Die Analyse der experimentellen Daten in einem Rapiditätsintervall von y/yStrahl = 0:2 ~ 0:8 zeigt keine in die Reaktionsebene gerichtete Flußkomponente.
We present a detailed study of chemical freeze-out in nucleus-nucleus collisions at beam energies of 11.6, 30, 40, 80 and 158A GeV. By analyzing hadronic multiplicities within the statistical hadronization approach, we have studied the chemical equilibration of the system as a function of center of mass energy and of the parameters of the source. Additionally, we have tested and compared different versions of the statistical model, with special emphasis on possible explanations of the observed strangeness hadronic phase space under-saturation.
Cancer has become one of the most fatal diseases. The Heidelberg Heavy Ion Cancer Therapy (HICAT) has the potential to become an important and efficient treatment method because of its excellent “Bragg peak” characteristics and on-line irradiation control by the PET diagnostics. The dedicated Heidelberg Heavy Ion Cancer Therapy Project includes two ECR ion sources, a RF linear injector, a synchrotron and three treatment rooms. It will deliver 4*10 high 10 protons, or 1*10 high 10 He, or 1*10 high 9 Carbons, or 5*10 high 8 Oxygens per synchrotron cycle with the beam energy 50-430AMeV for the treatments. The RF linear injector consists of a 400AkeV RFQ and of a very compact 7AMeV IH-DTL accelerator operated at 216.816MHz. The development of the IH-DTL within the HICAT project is a great challenge with respect to the present state of the DTL art because of the following reasons: • The highest operating frequency (216.816MHz) of all IH-DTL cavities; • Extremely large cavity length to diameter ratio of about 11; • IH-DTL with three internal triplets; • The highest effective voltage gain per meter (5.5MV/m); • Very short MEBT design for the beam matching. The following achievements have been reached during the development of the IH-DTL injector for HICAT : The KONUS beam dynamics design with LORASR code fulfills the beam requirement of the HICAT synchrotron at the injection point. The simulations for the IH-DTL injector have been performed not only with a homogeneous input beam, but also with the actual particle distribution from the exit of the HICAT RFQ accelerator as delivered by the PARMTEQ code. The output longitudinal normalized emittance for 95% of all particles is 2.00AkeVns, the emittance growth is less than 24%, while the X-X’ and Y-Y’ normalized emittance are 0.77mmmrad and 0.62mmmrad, respectively. The emittance growth in X-X’ is less than 18%, and the emittance growth in Y-Y’ is less than 5%. Based on the transverse envelopes of the transported particles, the redesign of the buncher drift tubes at the RFQ high energy end has been made to get a higher transit time factor for this novel RFQ internal buncher. An optimized effective buncher gap voltage of 45.4KV has been calculated to deliver a minimized longitudinal beam emittance, while the influence of the effective buncher voltage on the transverse emittance can be neglected. Six different tuning concepts were investigated in detail while tuning the 1:2 scaled HICAT IH model cavity. ‘Volume Tuning’ by a variation of the cavity cross sectional area can compensate the unbalanced capacitance distribution in case of an extreme beta-lambda-variation along an IH cavity. ‘Additional Capacitance Plates’ or copper sheets clamped on drift tube stems are a fast way for checking the tuning sensitivity, but they will be replaced by massive copper blocks mounted on the drift tube girders finally. ‘Lens Coupling’ is an important tuning to stabilize the operation mode and to increase or decrease the coupling between neighboring sections. ‘Tube Tuning’ is the fine tuning concept and also the standard tuning method to reach the needed field distributions as well as the gap voltage distributions. ‘Undercut Tuning’ is a very sensitive tuning for the end sections and with respect to the voltage distribution balance along the structure. The different types of ‘plungers’ in the 3rd and 4th sections have different effects on the resonance frequency and on the field distribution. The different triplet stems and the geometry of the cavity end have been also investigated to reach the design field and voltage distributions. Finally, the needed uniform field distribution along the IH-DTL cavity and the corresponding effective voltage distribution were realized, the remaining maximum gap voltage difference was less than 5% for the model cavity. The several important higher order modes were also measured. The RF tuning of the IH-DTL model cavity delivers the final geometry parameters of the IH-DTL power cavity. A rectangular cavity cross section was adopted for the first time for this IH-DTL cavity. This eases the realization of the volume tuning concept in the 1st and 2nd sections. Lens coupling determines the final distance between the triplet and the girder. The triplets are mounted on the lower cavity half shell. The Microwave Studio simulations have been carried out not only for the HICAT model cavity, but also for the final geometry of the IH-DTL power cavity. The field distribution for the operation mode H110 fits to the model cavity measurement as well as the Higher Order Modes. The simulations prove the IH-DTL geometrical design. On the other hand, the precision of one simulation with 2.3 million mesh points for full cross section area and the CPU time more than 15hours on a DELL PC with Intel Pentium 4 of 2.4GHz and 2.096GRAM were exploited to their limit when calculating the real parameters for the two final machining iterations during production. The shunt impedance of the IH-DTL power cavity is estimated by comparison with the existing tanks to about 195.8MOmega/m, which fits to the simulation result of 200.3MOmega/m with reducing the conductivity to the 5.0*10 high 7 Omega-1m-1. The effective shunt impedance is 153 MOmega/m. The needed RF power is 755kW. The expected quality factor of the IH-DTL cavity is about 15600. The IH-DTL power cavity tuning measurements before cavity copper plating have been performed. The results are within the specifications. There is no doubt that the needed accuracy of the voltage distribution will be reached with the foreseen fine tuning concepts in the last steps.
HADES ist ein hochauflösendes Dielektronenspektrometer, welches derzeit an der GSI in Darmstadt aufgebaut wird. Ziel ist die Messung von Leptonenpaaren, die in schwerioneninduzierten Reaktionen entstehen. Die invariante Masse der Leptonenpaare soll mit einer Genauigkeit von ~ 1% bestimmt werden. Das HADES-Detektorsystem verwendet Vieldraht-Proportionalkammern zur Rekonstruktion der Teilchenspuren. Aus diesen werden in Verbindung mit der Feldinformation des supraleitenden Magneten die Teilchenimpulse gewonnen, welche wiederum in die invariante Masse eingehen. Über die Driftzeit1 werden die genauen Durchstoßpunkte der Teilchenbahnen durch die verschiedenen Ebenen der Driftkammern erhalten. Dazu ist es erforderlich, die Driftgeschwindigkeit der Elektronen im verwendeten Zählgas zu kennen. Änderungen im Mischungsverhältnis des Zählgases (Helium und Isobutan), aber auch Verunreinigungen des Gases (H2O) können die Driftgeschwindigkeit beeinträchtigen. Verunreinigungen (O2) können weiterhin die Effizienz der Driftkammern verschlechtern. Ziel war deshalb der Aufbau eines Monitorsystems, welches auf Änderungen der Gasmischung und auf eventuelle Kontaminationen (im wesentlichen O2 und H2O) sensitiv ist. Zu diesem Zweck wurde ein Driftgeschwindigkeitsmonitor getestet. Er erlaubt eine Messung der Driftgeschwindigkeit mit einer Genauigkeit von bis zu 0,1% (sigma), allerdings bei anderen elektrischen Feldstärken als in den HADES Driftkammern. Während der einwöchigen Strahlzeit im Mai 2000 wurde die Driftgeschwindigkeit mit dem Prototypen des Driftgeschwindigkeitsmonitors gemessen. Die druckkorrigierte Driftgeschwindigkeit erlaubt Rückschlüsse auf die Gasqualität. Die Messungen ergaben, daß die Ortsauflösung in den HADES Driftkammern nicht von Driftgeschwindigkeitsschwankungen dominiert wird. Eine Extrapolation der Meßergebnisse auf die in den HADES Driftkammern vorherrschenden Feldstärkeverhältnisse ist möglich. Eine relative Signalhöhenmessung ist sensitiv auf den Sauerstoffgehalt des Zählgases bis in den ppm-Bereich. Zwei endgültige Versionen des Driftgeschwindigkeitsmonitors wurden aufgebaut und in das HADES Detektorsystem integriert. Je ein Driftgeschwindigkeitsmonitor wurde am Gasein- und am Gasausfluß aufgestellt, um die Driftgeschwindigkeit dort zu messen und Vergleiche zwischen Frischgas und aus den Kammern ausströmendem ”alten“ Gas zuzulassen. Die Auslese und Datenanalyse des Monitorsystems wurde automatisiert.
Fluctuations and NA49
(2005)
A systematic analysis of data on strangeness and pion production in nucleon–nucleon and central nucleus–nucleus collisions is presented. It is shown that at all collision energies the pion/baryon and strangeness/pion ratios indicate saturation with the size of the colliding nuclei. The energy dependence of the saturation level suggests that the transition to the Quark Gluon Plasma occurs between 15 A·GeV/c (BNL AGS) and 160 A·GeV/c (CERN SPS) collision energies. The experimental results interpreted in the framework of a statistical approach show that the effective number of degrees of freedom increases in the course of the phase transition and that the plasma created at CERN SPS energies may have a temperature of about 280 MeV (energy density ~ 10 GeV/fm exp-3). The presence of the phase transition can lead to the non–monotonic collision energy dependence of the strangeness/pion ratio. After an initial increase the ratio should drop to the characteristic value for the QGP. Above the transition region the ratio is expected to be collision energy independent. Experimental studies of central Pb+Pb collisions in the energy range 20–160 A·GeV/c are urgently needed in order to localize the threshold energy, and study the properties of the QCD phase transition.
We argue that the measurement of open charm gives a unique opportunity to test the validity of pQCD-based and statistical models of nucleus-nucleus collisions at high energies. We show that various approaches used to estimate D-meson multiplicity in central Pb+Pb collisions at 158 A GeV give predictions which differ by more than a factor of 100. Finally we demonstrate that decisive experimental results concerning the open charm yield in A+A collisions can be obtained using data of the NA49 experiment at the CERN SPS.
Under a conventional policy rule, a central bank adjusts its policy rate linearly according to the gap between inflation and its target, and the gap between output and its potential. Under "the opportunistic approach to disinflation" a central bank controls inflation aggressively when inflation is far from its target, but concentrates more on output stabilization when inflation is close to its target, allowing supply shocks and unforeseen fluctuations in aggregate demand to move inflation within a certain band. We use stochastic simulations of a small-scale rational expectations model to contrast the behavior of output and inflation under opportunistic and linear rules. Klassifikation: E31, E52, E58, E61. July, 2005.
This paper introduces a method for solving numerical dynamic stochastic optimization problems that avoids rootfinding operations. The idea is applicable to many microeconomic and macroeconomic problems, including life cycle, buffer-stock, and stochastic growth problems. Software is provided. Klassifikation: C6, D9, E2 . July 28, 2005.
Die Verbriefung des Cash Flows eines Unternehmens ist eine in Großbritannien bekannte und etablierte Form der Unternehmensfinanzierung. In Deutschland hat es bisher erst zwei Transaktionen dieser Art gegeben. Die Gründe hierfür liegen in den unterschiedlichen rechtlichen Systemen und den unterschiedlichen Möglichkeiten der Darlehensbesicherung. Dieser Aufsatz beschreibt die diesbezüglichen wesentlichen Unterschiede und stellt Strukturen vor, mit denen auch im deutschen Rechtskreis entsprechende Transaktionen umgesetzt werden können.
Groundwater recharge is the major limiting factor for the sustainable use of groundwater. To support water management in a globalized world, it is necessary to estimate, in a spatially resolved way, global-scale groundwater recharge. In this report, improved model estimates of diffuse groundwater recharge at the global-scale, with a spatial resolution of 0.5° by 0.5°, are presented. They are based on calculations of the global hydrological model WGHM (WaterGAP Global Hydrology Model) which, for semi-arid and arid areas of the globe, was tuned against independent point estimates of diffuse groundwater recharge. This has led to a decrease of estimated groundwater recharge under semi-arid and arid conditions as compared to the model results before tuning, and the new estimates are more similar to country level data on groundwater recharge. Using the improved model, the impact of climate change on groundwater recharge was simulated, applying two greenhouse gas emissions scenarios as interpreted by two different climate models.
Die Frage nach den Formen und Bestimmungsfaktoren der Eingliederung der ausländischen Bevölkerung gewinnt mit der dauerhaften Niederlassung der ehemals als „Gastarbeiter“ zugewanderten Gruppen und ihrer Nachkommen zunehmend an Bedeutung. Häufig mangelt es aber an geeigneten Daten, um empirisch fundierte Antworten auf gesellschaftlich vieldiskutierte Fragen zu geben: Wie weit ist die Integration von Personen mit Migrationshintergrund (Migranten) im schulischen und beruflichen Bereich fortgeschritten, und wie lässt sich die Distanz zu den Deutschen gegebenenfalls erklären? Wie ist es um das Interesse und die Partizipation von Migranten im politischen und sozialen Bereich bestellt? Nehmen inter-ethnische Eheschließungen und Freundschaftsbeziehungen zu, und gibt es diesbezüglich Unterschiede zwischen den Nationalitätengruppen? Diese Fragen stellen sich besonders dringlich, wenn es um die „zweite“ oder „dritte Generation“ von Migranten geht, wird doch die Integration oder Segregation dieser Gruppe die Gesellschaft in Deutschland in den nächsten Jahrzehnten entscheidend prägen. Aus diesen Gründen wurde im Juli 2000 der Auftrag zu einer breit angelegten Befragung italienisch-und türkischstämmiger Migranten im Alter von 18 bis 30 Jahre sowie einer deutschen Kontrollgruppe (je ca. 1.200 Befragte) an das Markt- und Meinungsforschungsinstitut BIK Aschpurwis und Behrens, Hamburg, vergeben. Die Erhebungsdaten wurden Ende März 2001 an das Bundesinstitut für Bevölkerungsforschung (BiB) geliefert. Bei der Befragung wurden Items über die Lebensverhältnisse, das Verhalten und die Einstellungen erhoben. Im Mittelpunkt standen thematisch die schulische, berufliche, soziale, sprachliche und identifikative Integration; Art und Ausmaß der Kontakte zur ethnischen Community und ihren Einrichtungen; Einstellungen zum Leben in Deutschland und zur politischen Partizipation sowie familiale Lebensbedingungen und Einstellungen. Aufgrund der thematischen Breite des Surveys und der hohen Anzahl an Befragten lassen sich anhand der Daten fundierte Aussagen über die Eingliederungsmuster der untersuchten Gruppen machen. Nähere Informationen zum Fragebogen, zur Stichprobe und sozialstrukturellen Zusammensetzung der Befragten des Integrationssurveys finden Sie in: - Mammey, Ulrich; Sattig, Jörg, 2002: Zur Integration türkischer und italienischer junger Erwachsener in die Gesellschaft der Bundesrepublik Deutschland - Der Integrationssurvey des BiB. Wiesbaden: Bundesinstitut für Bevölkerungsforschung, Materialien zur Bevölkerungswissenschaft, Heft 105a, -Haug, Sonja, 2002: Familienstand, Schulbildung und Erwerbstätigkeit junger Erwachsener. Eine Analyse der ethnischen und geschlechtsspezifischen Ungleichheiten – Erste Ergebnisse des Integrationssurveys des BiB, in: Zeitschrift für Bevölkerungswissenschaft, 27, 1: 115-144 Die Ergebnisse der Auswertung spezieller Fragestellungen wurden bisher in verschiedenen Ausgaben der Zeitschrift für Bevölkerungswissenschaft, den BiB-Mitteilungen sowie im Band 105b der Materialien zur Bevölkerungswissenschaft veröffentlicht. Hinweise auf aktuelle Veröffentlichungen finden Sie unter http://www.bib-demographie.de.
Vorhofflimmern ist die in der Klinik und Praxis am häufigsten diagnostizierte Herzrhythmusstörung. In allen Fällen bestehen zwei grundsätzliche Therapieoptionen: Zum einen Kardioversionsbehandlung gefolgt von Rezidivprophylaxe mit Antiarrhythmika bzw. alleinige Frequenzkontrolle unter adäquater Antikoagulation bei Inkaufnahme der Rhythmusstörung. In der vorliegenden Arbeit sind 32 Patienten mit persistierendem Vorhofflimmern untersucht worden, die entwedermit Cordichin, Sotalol oder Amiodaron behandelt worden sind. Der Schwerpunkt der Untersuchung wurde auf die Veränderung der Hämodynamik nach erfolgreicher Kardioversion in den Sinusrhythmus gelegt. Hier zeigte sich, dass unabhängig von dem zur Rhythmusstabilisierung verwendeten Medikament die erfolgreiche Wiederherstellung von Sinusrhythmus mit einer Verbesserung der Hämodynamik und der Auswurffraktion des Herzens einherging. Somit bestätigen die vorliegenden Untersuchungsbefunde die umfangreiche Literatur zu diesem Thema.
Die vorliegende geologische Arbeit befaßt sich mit einem Ausschnitt des Taunus. Der Taunus ist der südöstlichste Teil des Rheinischen Schiefergebirges und liegt in etwa zwischen Koblenz, Gießen, Frankfurt und Wiesbaden (Abb. 1 und 2). Marine Flachseesedimente prägen hier das Unterdevon des Rheinischen Schiefergebirges. Durch variszische Deformation entstand überwiegend NW- bis NNW-vergenter Faltenbau. Gravitative Kräfte ließen weitere tektonische Strukturen entstehen. Tertiäre Bruchtektonik schuf Horste und Gräben....... Das bearbeitete Gebiet weist unter großflächigen quartären Schuttdecken unterdevonische Sedimente der Tonschiefer- und Feinsandsteinfraktion auf. Im Unterdevon sorgte rasche Sedimentation bei ständiger Absenkung des Rheinischen Trogs für ein flaches Meer. Im Norden des Kartiergebiets tritt eine Fossilbank mit mariner Fauna zutage. Bei der mesozoisch-tertiären Verwitterung wurden die oberflächennahen Gesteine gelockert und Vererzungen und Roterden gebildet. Taleinschnitte in die tertiäre Rumpffläche sind pleistozänen Alters. Das devonische Gestein ist anchimetamorph überprägt und zeigt eine deutliche erste Schieferung, welche von einer intensiven Glimmerneubildung begleitet ist und primär stark nordwestvergent angelegt wurde. In feinpelitischen Bereichen kann eine zweite, postkristalline Schieferung ausgebildet sein. Durch starken Schuppenbau und anhaltende laterale Einengung bei der variszischen Überprägung entstanden im Taunus sogenannte "horse structures": Es kam zu sukzessiver Aufrichtung hangender Schuppeneinheiten bei nordwestlich fortschreitender Anlage von Überschiebungsbahnen im Liegenden. Im Scheitelbereich eines so entstandenen Vergenzfächers liegt das Kartiergebiet. Achsenflächen und Hauptschieferung stehen steil bis saiger. In diesen Bereichen kam es beim Kollaps des Gebirges durch gravitative Kräfte zur Anlage von Knickbändern. Sie ersetzen Verschiebungsflächen. Vereinzelt sind sie auch mit Abschiebungen verbunden. Die am häufigsten aufgeschlossene Knickband-Schar hat nach SE abschiebenden Charakter, eine zweite zeigt NW-gerichteten Bewegungssinn. Sie sind aufgrund der gleichgerichteten vertikalen Einengung zusammengehörend bzw. konjungiert. Die Knickachsen beider Scharen tauchen mit nur wenigen Grad in Streichrichtung ab. Manchmal sind Knickbänder dieser beiden Gruppen direkt konjungiert aufgeschlossen. Möglicherweise durch Rotation, als Teil konjungierter Knickbänder oder innerhalb größerer übergeordneter Knickbänder erscheinen einige der Knickbänder aufschiebend. Eine untergeordnete, dritte Knickband-Schar deutet mit schrägabschiebendem Verschiebungssinn eine Rotation der Spannungsrichtung und möglicherweise erste Bewegungen der Idsteiner Senke an. Sie ist im Untersuchungsgebiet nur selten aufgeschlossen. Die Untersuchungen im Zuge dieser Diplomarbeit ergaben, daß die Knickbänder bevorzugt in Bereichen südvergenter Schieferung entstanden. Im Süden und südlich des Kartiergebiets weist die Schieferung häufiger Südvergenz auf, weshalb dort fast ausschließlich nach S bis SE abschiebende Knickbänder einzumessen waren. Unterschiede zwischen Messungen im Westen und Osten des Gebiets wurden nicht festgestellt. Ein weiteres Ergebnis dieser Arbeit ist eine Longitudinalstrain-Berechnung von 3,4-6,8 % für die Gesteinspartien mit Knickbändern. Die Anlage der Knickbänder wird als letzte variszische Deformation angesehen. Ihr folgten außer kleineren Abschiebungen möglicherweise noch syn- und antithetische Rotationsbewegungen einzelner Gesteinsschollen. Demnach würden sich insgesamt die Anlage der Knickbänder und die Bildung der Vergenzfächer zeitlich überschneiden. Das Einfallen der Knickachsen und auch anderer Achsen und Lineare flach nach SW, ist wahrscheinlich durch tertiäre Bruchschollentektonik bedingt. Diese Bruchtektonik gliedert das Gebirge in Schollen mit Horsten und Gräben, so z.B. die bedeutende Grabenstruktur der Idsteiner Senke. Dabei kann der Vergenzfächer trotz vertikaler Bewegung horizontal versetzt worden sein. Seine Scheitellinie verändert zur Tiefe hin die Position ("horse structures") und tritt bei einer erodierten Hochscholle versetzt zutage.
Im Rahmen der vorliegenden Arbeit wurden am Schwerionensynchrotron (SIS) der Gesellschaft für Schwerionenforschung/Darmstadt (GSI) Untersuchungen zur Produktion geladener K-Mesonen in Kohlenstoff induzierten Schwerionenreaktionen durchgeführt. Im Energiebereich von 1 bis 2 AGeV wurden dazu spektrale Verteilungen von Pionen, Kaonen und Antikaonen aus Kernreaktionen der Stoßsysteme C + C und C + Au unter verschiedenen Laborwinkelbereichen mit dem Kaon-Spektrometer (KaoS) aufgenommen. Da es sich um Kaonproduktion unterhalb der Nukleon-Nukleon-Schwelle handelt, spielen Eigenschaften der Kernmaterie eine Rolle, die Gegenstand dieser Arbeit sind. Sowohl für Kaonen als auch für Antikaonen wurde eine polare Anisotropie der Winkelverteilung festgestellt. Die unter verschiedenen Laborwinkelbereichen aufgenommenen K+- -Spektren decken im Schwerpunktsystem einen Winkelbereich von 60 Grad < Theta CM < 150 Grad ab und lassen sich gut durch eine Winkelverteilung der Form sigma inv alpha (1 + a2 cos exp 2 Theta CM) beschreiben. Im Rahmen der Meßgenauigkeit konnte keine Abhängigkeit der polaren Anisotropie von der kinetischen Energie der Kaonen und Antikaonen festgestellt werden. Es lässt sich jedoch zeigen, dass es von der Einschussenergie abhängig eine Winkeleinstellung gibt, bei der der totale Wirkungsquerschnitt vom Anisotropieparameter a2 unabhängig bestimmt werden kann, wenn die oben angegebene Parametrisierung der wahren Winkelverteilung genügt. Die Anregungsfunktion sigma K+- (E Beam) für Antikaonen ist steiler als die für Kaonen, jedoch lassen sich beide Produktionswirkungsquerschnitte als Funktion der Differenz aus der pro Nukleon normierten Gesamtenergie und der Energie an der NN-Schwelle durch sigma K alpha (mK + sqrt s - sqrt s th) beschreiben. Es konnte gezeigt werden, dass sich dieses identische Verhalten der derart auf die Excess-Energie korrigierten Kaon- und Antikaonproduktion jedoch nicht nur in den totalen Wirkungsquerschnitten, sondern auch in der Form der spektralen Verteilungen widerspiegelt. Ebenso scheinen die pro Partizipant normierten K+- -Multiplizitäten bei gleicher Excess-Energie gleichermaßen stark von der Größe des Stoßsystems abzuhängen. Das etwa um einen Faktor 10 erhöhte K-/K+-Verhältnis im Vergleich zur K+- -Produktion in Proton-Proton-Stößen konnte nicht durch triviale Mediumeffekte wie Absorption oder sequentielle Mehrfachstöße erklärt werden. Dies kann als Hinweis auf eine eventuelle Modifikation der effektiven K+- -Massen in dichter Materie verstanden werden, wie sie die theoretische Hadronenphysik auf der Basis von QCD und chiraler Störungstheorie vorhersagt. Das benutzte relativistische RBUU-Modell kann die gemessenen Kaon- und Antikaonverteilungen nur unter der Annahme solcher Massenmodifikationen erklären. Die K- -Massenmodifikation hat interessante Konsequenzen für die Astrophysik und stellt somit eine Verbindung zu einem weiteren faszinierenden Teilgebiet der modernen Physik dar. Aufgrund der K- -Massenmodifikation erwarten G. E. Brown und H. A. Bethe ein Kaonkondensat in Neutronensternen ab einer Dichte von rho ~ 3 rho 0. Dies limitiert die Masse von Neutronensternen auf etwa 1.5 M ?. Für Supernovaüberreste von mehr als 1.5 M ?. erwarten sie die Bildung von schwarzen Löchern. Für das asymmetrische Stoßsystem 12C + 197 Au kann das Schwerpunktsystem nur berechnet werden, wenn z. B. mit dem geometrischen Modell mittlere Projektil- und Targetpartizipantenanzahlen (< A Projectile part >= 6 bzw. < A Target part >= 16 ) angenommen werden. Die damit ermittelten Wirkungsquerschnitte deuten auf eine stärkere polare Anisotropie als für das 12C + 12C-System hin. Wird aus der in symmetrischen Stößen gemessenen Abhängigkeit der K+- -Produktion von der Systemgröße die Anzahl der Partizipanten im 12C + 197Au-System ermittelt, so stimmt diese für K+ mit den Vorhersagen des geometrischen Modells in etwa überein, für K- werden hingegen nur halbsoviel Partizipanten ermittelt. Dies deutet auf eine starke K- -Absorption in der Targetspektatormaterie hin. Abschließend sei noch angemerk, dass die KaoS-Kollaboration bereits weitere Messungen zur K+- -Produktion in den Stoßsystemen Ni+Ni und Au+Au sowie in asymmetrische, protoninduzierten p + A Reaktionen durchgefüuhrt hat. Nach dem innerhalb der nächsten zwei Jahre zu erwartenden Abschluss der Analyse dieser Daten liegt somit eine systematische Studie der K+- -Produktion unterhalb der NN-Schwelle vor, die einen maßgeblichen Beitrag zum Studium der Eigenschaften von Hadronen in dichter Kernmaterie und zum Verhalten von Kernmaterie unter extremen Bedingungen liefern wird.
Ziel dieser Arbeit war die Entwicklung einer ergänzenden Korrekturmethode auf die bei hohen Multiplizitäten auftretende Ineffizienz des im Rahmen des NA35-Experiments benutzten zentralen Spurdetektors, der NA35-Streamerkammer, sowie die Analyse der damit aufgenommenen Kern-Gold-Ereignisse. Diese, speziell für hohe Multiplizitäten und große Rapiditäten konzipierte Korrekturmethode zeigt im Bereich um Midrapidity gute Übereinstimmung mit den traditionellen Korrekturmethoden als auch mit den Daten des zweiten, zur Streamerkammer komplementären Spurdetektors, der NA35-TPC, für hohe Rapiditäten. Es ist somit eine Erweiterung der Streamerkammerakzeptanz je nach Stoßsystem um 0.5-1 Rapiditätseinheiten gelungen, die eine 4-Pi-Extrapolation auf den vollständigen Phasenraum erlaubt. Die Analyse der damit korrigierten Daten zeigt für die Rapiditätsverteilung der negativen Hadronen eine systematische Verschiebung der gemessenen sowie extrapolierten mittleren Rapidität weg von Midrapidity des Nukleon-Nukleon-Stoßes bei zunehmender Asymmetrie des Stoßsystems. Die Formen der Rapiditätsverteilungen scheinen sich jedoch zu gleichen und die Multiplizität skalierte in etwa mit dem Massenverhältins der Projektilkerne. Ebenso zeigt die spezifische Produktionsrate für negative Hadronen pro partizipierendem Nukleon keine signifikante Projektilabhänigkeit, sie liegt bei ~ 1.7 h-/N part.Protons. Die Rapiditätsverteilungen der Nettoprotonen skalieren oberhalb midrapidity mit der Projektilmasse und deutet auf keine Abhängigkeit des stoppings von der Größe des Projektilkerns hin. Sämtliche Projektilnukleonen scheinen im wesentlich schwereren Targetkern demnach gleichviel Energie zu deponieren (gleich stark abgebremst zu werden). Die Transversalimpulsspektren der Nettoprotonen lassen sich gut durch die Verteilungen thermischer Quellen beschreiben, wobei sich für das Stoßsystem 2d+197Au eine Temperatur der Quelle von ungefähr 160MeV, also im Bereich des Hagedorn-Limits, ergibt. Im Falle der 16O+197Au-Daten ergeben sich Temperaturen größer 200MeV. Diese Arbeit schließt die Akzeptanzlücke zwischen den zwei komplimentären Spurdetektoren im NA35-Experiment und ermöglicht damit die Studie von Schwerionenstößen im nahezu vollständigen Phasenraum für zentrale Kern-Gold-Kollisionen.