Refine
Year of publication
Document Type
- Article (30903)
- Part of Periodical (11535)
- Book (8318)
- Doctoral Thesis (5740)
- Part of a Book (3723)
- Working Paper (3392)
- Review (2879)
- Contribution to a Periodical (2368)
- Preprint (2320)
- Conference Proceeding (1709)
Language
- German (42181)
- English (30144)
- French (1056)
- Portuguese (720)
- Croatian (302)
- Spanish (301)
- Multiple languages (257)
- Italian (195)
- mis (174)
- Turkish (148)
Has Fulltext
- yes (75801) (remove)
Is part of the Bibliography
- no (75801) (remove)
Keywords
- Deutsch (1032)
- Literatur (805)
- taxonomy (771)
- Deutschland (543)
- Rezension (491)
- new species (457)
- Frankfurt <Main> / Universität (341)
- Rezeption (325)
- Geschichte (291)
- Übersetzung (271)
Institute
- Medizin (7801)
- Präsidium (5219)
- Physik (4753)
- Wirtschaftswissenschaften (2705)
- Extern (2657)
- Gesellschaftswissenschaften (2374)
- Biowissenschaften (2206)
- Biochemie und Chemie (1978)
- Frankfurt Institute for Advanced Studies (FIAS) (1866)
- Informatik (1709)
High perveance negative ion beams with low emittance are essential for several next generation particle accelerators (i. g. spallation sources like ESS [1] and SNS [2]). The extraction and transport of these beams have intrinsic difficulties different from positive ion beams. Limitation of beam current and emittance growth have to be avoided. To fulfill the requirements of those projects a detailed knowledge of the physics of beam formation the interaction of the H- with the residual gas and transport is substantial. A compact cesium free H- volume source delivering a low energy high perveance beam (6.5 keV, 2.3 mA, perveance K= 0.0034) has been built to study the fundamental physics of beam transport and will be integrated into the existing LEBT section in the near future. First measurements of the interaction between the ion beam and the residual gas will be presented together with the experimental set up and preliminary results.
For investigation of space charge compensation process due to residual gas ionization and the experimentally study of the rise of compensation, a Low Energy Beam Transport (LEBT) system consisting of an ion source, two solenoids, a decompensation electrode to generate a pulsed decompensated ion beam and a diagnostic section was set up. The potentials at the beam axis and the beam edge were ascertained from time resolved measurements by a residual gas ion energy analyzer. A numerical simulation of self-consistent equilibrium states of the beam plasma has been developed to determine plasma parameters which are difficult to measure directly. The temporal development of the kinetic and potential energy of the compensation electrons has been analyzed by using the numerically gained results of the simulation. To investigate the compensation process the distribution and the losses of the compensation electrons were studied as a function of time. The acquired data show that the theoretical estimated rise time of space charge compensation neglecting electron losses is shorter than the build up time determined experimentally. To describe the process of space charge compensation an interpretation of the achieved results is given.
Low energy beam transport (LEBT) for a future heavy ion driven inertial fusion (HIDIF [1]) facility is a crucial point using a Bi+ beam of 40 mA at 156 keV. High space charge forces (generalised perveance K=3.6*10-3) restrict the use of electrostatic focussing systems. On the other hand magnetic lenses using space charge compensation suffer from the low particle velocity. Additionally the emittance requirements are very high in order to avoid particle losses in the linac and at ring injection [2]. urthermore source noise and rise time of space charge compensation [3] might enhance particle losses and emittance. Gabor lenses [4] using a continuous space charge cloud for focussing could be a serious alternative to conventional LEBT systems. They combine strong cylinder symmetric focussing with partly space charge compensation and low emittance growth due to lower non linear fields. A high tolerance against source noise and current fluctuations and reduced investment costs are other possible advantages. The proof of principle has already been shown [5, 6]. To broaden the experiences an experimental program was started. Therefrom the first experimental results using a double Gabor lens (DGPL, see fig. 1 ) LEBT system for transporting an high perveance Xe+ beam will be presented and the results of numerical simulations will be shown.
The determination of the beam emittance using conventional destructive methods suffers from two main disadvantages. The interaction between the ion beam and the measurement device produces a high amount of secondary particles. Those particles interact with the beam and can change the transport properties of the accelerator. Particularly in the low energy section of high current accelerators like proposed for IFMIF, heavy ion inertial fusion devices (HIDIF) and spallation sources (ESS, SNS) the power deposited on the emittance measurement device can lead to extensive heat on the detector itself and can destruct or at least dejust the device (slit or grit for example). CCD camera measurements of the incident light emitted from interaction of beam ions with residual gas are commonly used for determination of the beam emittance. Fast data acquisition and high time resolution are additional features of such a method. Therefore a matrix formalism is used to derive the emittance from the measured profile of the beam [1,2] which does not take space charge effects and emittance growth into account. A new method to derive the phase space distribution of the beam from a single CCD camera image using statistical numerical methods will be presented together with measurements. The results will be compared with measurements gained from a conventional Allison type (slit-slit) emittance measurement device.
Investigation of the focus shift due to compensation process for low energy ion beam transport
(2000)
In magnetic Low Energy Beam Transport (LEBT) sections space charge compensation helps to enhance the transportable beam current and to reduce emittance growth due to space charge forces. For pulsed beams the time neccesary to establish space charge compensation is of great interest for beam transport. Particularly with regard to beam injection into the first accelerator section (e.g. RFQ) investigation of effects on shift of the beam focus due to space charge compensation are very important. The achieved results helps to obviate a mismatch into the first RFQ. To investigate the space charge compensation due to residual gas ionization, time resolved measurements using pulsed ion beams were performed at the LEBT system at the IAP and at the CEA-Saclay injektion line. A residual gas ion energy analyser (RGIA) equiped with a channeltron was used to measure the potential destribution as a function of time to estimate the rise time of compensation. For time resolved measurements (delta t min=50ns) of the radial density profile of the ion beam a CCD-camera was applied. The measured data were used in a numerical simulation of selfconsistant eqilibrium states of the beam plasma [1] to determine plasma parameters such as the density, the temperature, the kinetic and potential energy of the compensation electrons as a function of time. Measurements were done using focused proton beams (10keV, 2mA at IAP and 92keV, 62mA at CEA-Saclay) to get a better understanding of the influence of the compensation process. An interpretation of the acquired data and the achieved results will be presented.
Influence of space charge fluctuations on the low energy beam transport of high current ion beams
(2000)
For future high current ion accelerators like SNS, ESS or IFMIF the beam behaviour in low energy beam transport sections is dominated by space charge forces. Therefore space charge fluctuations (e. g. source noise) can drastically influence the beam transport properties of the low energy beam transport section. Losses of beam ions and emittance growth are the most severe problems. For electrostatic transport systems either a LEBT design has to be found which is insensitive to variations of the space charge or the origin of the fluctuations has to be eliminated. For space charge compensated transport as proposed for ESS and IFMIF the situation is different: No major influence on beam transport is expected for fluctuations below a cut-off frequency given by the production rate of the compensation particles. Above this frequency the fluctuations can not be compensated by particle production alone, but redistributions of the compensation particles helps to compensate the influence of the fluctuations. Above a second cut-off frequency given by the density and the temperature of the compensation particles their redistribution is too slow to reduce the influence of the space charge fluctuations. Transport simulations for the IFMIF injector including space charge fluctuations will be presented together with a determination of the cut-off frequencies. The results will be compared with measurements of the rise time of space charge compensation.
Vortrag gehalten am 12. Januar 2005 in Frankfurt am Main, am Physikalischen Verein, anläßlich der Verleihung des Philipp-Siedler-Wissenschaftspreises an Dipl.-Phys. Christine Meurer, als Anerkennung für ihre Diplomarbeit "Xi- und Xi+ Produktion in Pb+Pb Stößen bei 40 A GeV am CERN SPS" (urn:nbn:de:hebis:30-13740). Am CERN, dem Europäischen Kernforschungszentrum, werden Bleiatomkerne auf nahezu Lichtgeschwindigkeit beschleunigt und zur Kollision gebracht. Dabei wird die Materie in einer Art Feuerball extrem verdichtet und erhitzt. Unter diesen Bedingungen brechen die Bestandteile der Atomkerne, die Nukleonen, auf und der Blick auf die eigentlichen Bausteine der Materie, die Quarks, wird möglich. Nach der Kollision expandiert der Feuerball und viele neue Teilchen, darunter auch die sogenannten seltsamen Teilchen, entstehen. Ihre Besonderheiten werden im Vortrag diskutiert: Ergebnisse zur Produktion des seltsamen Xi- -Teilchens in Pb+Pb-Stößen bei einer Energie von 40 A GeV werden vorgestellt. Aus dem transversalen Massenspektrum bei mittlerer Rapidität erhält man einen inversen Steigungsparamenter von T Xi- = (210±11±21)MeV . Die Integration des Rapiditätsspektrums liefert eine totale Anzahl der s im gesamten Phasenraum von (2.41 ± 0.15 ± 0.24) Teilchen pro Kollision. Desweiteren wird die Anregungsfunktion des Xi- -Hyperons sowie seine Zentralitätsabhänigkeit bei 40 A GeV diskutiert.
New results on the production of Xi and Omega hyperons in Pb+Pb interactions at 40 A GeV and Lambda at 30 A GeV are presented. Transverse mass spectra as well as rapidity spectra of these hyperons are shown and compared to previously measured data at different beam energies. The energy dependence of hyperon production (4Pi yields) is discussed. Additionally, the centrality dependence of Xi- production at 40 A GeV is presented.
First results on the production of Xi- and Anti-xi hyperons in Pb+Pb interactions at 40 A GeV are presented. The Anti-xi/Xi- ratio at midrapidity is studied as a function of collision centrality. The ratio shows no significant centrality dependence within statistical errors; it ranges from 0.07 to 0.15. The Anti-xi/Xi- ratio for central Pb+Pb collisions increases strongly with the collision energy.
High perveance negative ion beams with low emittance are essential for several next generation particle accelerators (i. g. spallation sources like ESS [1] and SNS [2]). The extraction and transport of these beams have intrinsic difficulties different from positive ion beams. Limitation of beam current and emittance growth have to be avoided. To fulfill the requirements of those projects a detailed knowledge of the physics of beam formation the interaction of the H- with the residual gas and transport is substantial. A compact cesium free H- volume source delivering a low energy high perveance beam (6.5 keV, 2.3 mA, perveance K= 0.0034) has been built to study the fundamental physics of beam transport and will be integrated into the existing LEBT section in the near future. First measurements of the interaction between the ion beam and the residual gas will be presented together with the experimental set up and preliminary results.
A LEBT system consisting of an ion source, two solenoids, and a diagnostic section has been set up to investigate the space charge compensation process due to residual gas ionization [1] and to study experimentally the rise of compensation. To gain the radial beam potential distribution time resolved measurements of the residual gas ion energy distribution were carried out using a Hughes Rojanski analyzer [2,3]. To measure the radial density profile of the ion beam a CCD-camera performed time resolved measurements, which allow an estimation the rise time of compensation. Further the dynamic effect of the space charge compensation on the beam transport was shown. A numerical simulation under assumption of selfconsistent states [4] of the beam plasma has been used to determine plasma parameters such as the radial density profile and the temperature of the electrons. The acquired data show that the theoretical estimated rise time of space charge compensation neglecting electron losses is shorter than the build up time determined experimentally. An interpretation of the achieved results is given.
To fulfil the requirements of ESS on beam transmission and emittance growth a detailed knowledge of the physics of beam formation as well as the interaction of the H- with the residual gas is substantial. Space charge compensated beam transport using solenoids for ion optics is in favour for the Low Energy Beam Transport (LEBT) between ion source and the first RFQ. Space charge compensation reduces the electrical self fields and beam radii and therefore emittance growth due to aberrations and redistribution. Transport of H- near the ion source is negatively influenced by the dipole fields required for beam extraction and e--dumping and the high gas pressure. The destruction of the rotational symmetry together with the space charge forces causes emittance growth and particle losses within the extraction system. High residual gas pressure near the extractor together with the high cross section for stripping will influence the transmission as well as space charge compensation. Therefore a detailed knowledge of the interaction of the residual gas with the beam and the influence of the external fields on the distribution of the compensation particles is necessary to reduce particle losses and emittance growth. Preliminary experiments using positive hydrogen ions for reference already show the influence of dipole fields on beam emittance. First measurements with H- confirm these results. Additional information on the interactions of the residual gas with the beam ions have been gained from the measurements using the momentum and energy analyser.
Vortrag gehalten an der Tagung "The XVI International Conference on Ultrarelativistic Nucleus-Nucleus Collisions, organized by SUBATECH Laboratory", in Nantes, France, 18-24 Juli 2002.
Rapidity distributions for Lambda and anti-Lambda hyperons in central Pb-Pb collisions at 40, 80 and 158 AGeV and for K 0 s mesons at 158 AGeV are presented. The lambda multiplicities are studied as a function of collision energy together with AGS and RHIC measurements and compared to model predictions. A different energy dependence of the Lambda/pi and anti-Lambda/pi is observed. The anti-Lambda/Lambda ratio shows a steep increase with collision energy. Evidence for a anti-Lambda/anti-p ratio greater than 1 is found at 40 AGeV.
The experiment NA49 at the CERN SPS is a large acceptance detector for charmed hadrons. The identification of neutral strange hadrons Lambda and AntiLambda is based on the measurement of their charged decay particles and the reconstruciton of the decay vertex. The charged particles were measured with the 4 time projection chambers (TPC), two of them are situated inside 2 large dipole magnets, the two others are downstream of the magnet. Lambda and AntiLambda baryons have been measured in central Pb+Pb collisions at 40, 80 and 160 GeV/nucleon over a wide range in rapidity (1 - 5) and transverse momentum (0 - 3 GeV/c). Particle yields and spectra will be shown for the different energies. The results will be put into the existing systematics of Lambda-production as a function of beam energy.
In this paper we present recent results from the NA49 experiment for Lambda and Lambda hyperons produced in central Pb+Pb collisions at 40, 80 and 158 A GeV. Transverse mass spectra and rapidity distributions for Lambda are shown for all three energies. The shape of the rapidity distribution becomes flatter with increasing beam energy. The multiplicities at mid-rapidity as well as the total yields are studied as a function of collision energy including AGS measurements. The ratio Lambda/pi at mid-rapidity and in 4 pi has a maximum around 40 A GeV. In addition, Lambda rapidity distributions have been measured at 40 and 80 A GeV, which allows to study the Lambda Lambda ratio.
Zielsetzung der ultrarelativistischen Schwerionenphysik ist es, hoch verdichtete und stark erhitzte Kernmaterie (gemeint ist hierbei nicht nur die Materie der Atomkerne, sondern allgemein stark wechselwirkende Materie) im Labor zu erzeugen und deren Eigenschaften zu untersuchen. Gitter-QCD Rechnungen sagen bei einer kritischen Energiedichte von 1-2 GeV/fm3 einen Übergang der hadronischen Materie in eine partonische Phase, dem Quark-Gluon-Plasma, voraus. Neben anderen Observablen wurde die Seltsamkeitsproduktion als mögliche Signatur für den Materiezustand quasifreier Quarks und Gluonen vorgeschlagen. Im Vergleich zu elementaren Nukleon-Nukleon-Reaktionen beobachtet man in Schwerionenkollisionen generell eine Überhöhung der Seltsamkeitsproduktion. Inwieweit dieser Unterschied bei allen Schwerpunktenergie auf rein hadronische Phänomene zurückgeführt werden kann, oder ob partonische Gleichgewichtseffekte eine wesentliche Rolle spielen, ist derzeit eines der wichtigen Themen der Schwerionenphysik. Antworten auf diese Fragen erhofft man sich aus der Untersuchung der Energieabhängigkeit der Erzeugung seltsamer Hadronen. Die NA49 Kollaboration hat deshalb am CERN-SPS ein Energie-Scan Programm aufgelegt, in dem zentrale Blei-Blei-Kollisionen bei 40, 80 und 158 A·GeV untersucht wurden. In dieser Arbeit wird die Produktion von Lambda und Antilambda Hyperonen bei den drei verschiedenen Strahlenergien untersucht. Lambda Hyperonen, die 30-60% der produzierten s-Quarks enthalten, erlauben neben der Seltsamkeitsproduktion gleichzeitig auch den durch die kollidierenden Kerne erzeugten Effekt der Baryonendichte zu studieren. Das NA49 Experiment führt präzise Messungen des hadronischen Endzustands über einen weiten Akzeptanzbereich durch. Die geladenen Sekundärteilchen werden in vier hochauflösenden Spurdriftkammern gemessen. Neutrale seltsame Teilchen (Lambda, Antilambda und K0s) werden anhand ihrer Zerfallstopologie identifiziert. Die untersuchten Lambda Hyperonen werden über drei Rapiditätseinheiten um den Bereich zentraler Rapidität und mit Transversalimpulsen von 0,4 und 2,5 GeV/c gemessen. Die Temperaturparameter der Lambda und Antilambda Transversalimpulsverteilungen bei zentraler Rapidität sind für die drei Energien im Rahmen der Fehler gleich. Als Funktion der Schwerpunktenergie beobachtet man einen Anstieg des Lambda-Temperaturparameters, was durch eine Erhöhung des kollektiven transversalen Flusses erklärt werden kann. Erste Ergebnisse zur Proton-Produktion zeigen einen ähnlichen Trend. Die Rapiditätsverteilungen der Lambda sind breiter als die der Antilambda-Hyperonen. Die Lambda Rapiditätsverteilung verbreitert sich mit ansteigender Schwerpunktenergie von einer bei zentraler Rapidität konzentrierten Verteilung bei 40 A·GeV zu einem flachen Verlauf bei 158 A·GeV. Die Lambdas enthalten Beiträge der extrem kurzlebigen Sigma 0, die elektromagnetisch in ein Lambda und ein Photon zerfallen. Die in der Analyse selektierten Lambda und Antilambda sind aufgrund der gewählten Qualitätskriterien nahezu frei von Beiträgen mehrfachseltsamer Baryonen. Der systematische Fehler der Spektren konnte zu 9% abgeschätzt werden. Die Korrekturen und die Analyseprozedur wurden durch die Extraktion des K0s Mesons bei 158 A·GeV und den Vergleich dieser Ergebnisse mit denen der geladenen Kaonen überprüft. Man stellt eine gute Übereinstimmung fest. Zusammen mit Ergebnissen bei niedrigeren Energien läßt sich die Anregungsfunktion der Lambda und AntiLambda Hyperonen studieren. Während die Lambda Multiplizität bei mittlerer Rapidität nach dem Anstieg bei niedrigen Energien im SPS-Energiebereich leicht abfällt bzw. die totale Multiplizität saturiert, beobachtet man für die AntiLambda einen stetigen Anstieg als Funktion der Schwerpunktenergie. Das <Lambda>/<Pi>-Verhältnis in Kern-Kern-Kollisionen zeigt einen steilen Anstieg im AGS-Energiebereich mit anschließendem Maximum und einem Abfall bei SPS-Energien. Dagegen beobachtet man in Nukleon-Nukleon-Reaktionen eine Saturation dieses Verhältnisses bei etwa der höchsten AGS-Energie. Die Normierung auf die Pionen dient dem Vergleich der Produktionsraten in Kern-Kern-Stößen mit denen der elementaren Systeme und ist unabhängig von der Anzahl der beteiligten Nukleonen. Das Maximum des Lambda/Pi Verhältnisses liegt zwischen 10 und 40 A·GeV, wie es von statistischen Modellen vorhergesagt wird. Die Energieabhängigkeit des Lambda/Pi-Verhältnisses läßt sich dementsprechend gut mit dem Statistischen Modell von Cleymans, Redlich et al. beschreiben. Der generelle Trend des Lambda/Pi Verhältnisses wird von den mikroskopischen Modellen (UrQMD, HSD, RQMD) richtig wiedergegeben, wobei jedoch die Datenpunkte (besonders für 40 A·GeV) unterschätzt werden. Die Vorhersagen des UrQMD- und HSD-Modells für die Lambda Rapiditätsverteilung zeigen sehr gute Übereinstimmung mit den Daten. Die Diskrepanz im Lambda/Pi Verhältnis ist somit auf die überschätzte Pion-Produktion zurückzuführen. Die AntiLambda Produktion wird von dem UrQMD- und RQMD-Modell um mehr als einen Faktor zwei unterschätzt. Die Lambda und Antilambda Produktionsraten für alle drei Energien und die totale K0s Multiplizität bei 158 A·GeV fügen sich in einer statistischen Modellanalyse von Becattini in die Systematik der anderen Teilchen ein. Der Seltsamkeits-Saturationsfaktor gamma s zeigt keine große Änderung als Funktion der Energie. Das AntiLambda/Lambda Verhältnis bei mittlerer Rapidität, das den Paarproduktionsprozess widerspiegelt, steigt rapide von AGS- bis RHIC-Energien an. Der gleiche Trend ist für das ¯p/p Verhältnis beobachtbar. Das AntiLambda/¯p Verhältnis erlaubt das Zusammenspiel der Produktions und Annihilationsprozesse zu studieren. Im SPS-Energiebereich steigt dieses Verhältnis mit abnehmender Schwerpunktenergie leicht an. Die Ergebnisse der vorliegenden Arbeit wurden auf der Strange-Quark-Matter Konferenz 2001 [1] und der Quark-Matter Konferenz 2002 [2] vorgestellt und diskutiert.
Excitation functions for quasi-elastic scattering have been measured at backward angles for the systems 32,34S+197Au and 32,34S+208Pb for energies spanning the Coulomb barrier. Representative distributions, sensitive to the low energy part of the fusion barrier distribution, have been extracted from the data. For the fusion reactions of 32,34S with 197Au couplings related to the nuclear structure of 197Au appear to be dominant in shaping the low energy part of the barrier distibution. For the system 32S+208Pb the barrier distribution is broader and extends further to lower energies, than in the case of 34S+208Pb. This is consistent with the interpretation that the neutron pick-up channels are energetically more favoured in the 32S induced reaction and therefore couple more strongly to the relative motion. It may also be due to the increased collectivity of 32S, when compared with 34S.
In den modernen Schwerionenexperimenten möchte man den Zustand der Materie unter extremen Bedingungen, wie sie in der frühen Phase unseres Kosmos herrschten, physikalisch untersuchen. Bei hoher Temperatur und Materiedichte wird ein Zustand postuliert, in dem Quarks, die unter den heute in der Natur vorkommenden Bedingungen auf Grund des Confinements in Hadronen gebunden sind, als quasi freie Teilchen existieren können. Eine spezielle Observable, die man dabei betrachtet, ist die Seltsamkeit. Aus früheren Messungen weiss man, dass die relative Häufigkeit einfach seltsamer Teilchen bei Kern-Kern-Reaktion gegenüber Proton-Proton-Reaktionen erhöht ist und eine andere Energieabhängigkeit zeigt. Zudem ist die Seltsamkeitsproduktion auch abhängig von der Systemgröße. Das kanonische, statistische Modell nach Redlich und Tounsi [7] sagt einen zunächst steilen Anstieg der Produktion von seltsamen Teilchen mit wachsender Systemgröße voraus, der aber bei großen Systemen immer flacher wird. Diese Diplomarbeit beschäftigt sich mit der Xi- und Xi+-Produktion in Blei-Blei-Stößen bei 40 A GeV. Bei dieser Analyse wird die Xi -Multiplizität in Abhängigkeit von der Kollisionszentralität und damit der Systemgröße untersucht. Zusätzlich wird die Xi- -Produktion in zentralen Blei-Blei-Stößen bei 40 A GeV mit Messungen bei anderen Energien verglichen und damit ihre Energieabhängigkeit der Xi- -Produktion untersucht. Die verwendeten Daten wurden während einer Strahlzeit im Herbst 1999 vom Experiment NA49 am SPS am CERN aufgenommen. Es wurden zwei Datensätze mit 7%igem Anteil am totalen Wirkungsquerschnitt und zwei Datensätze mit minimaler Einschränkung (minimum bias) durch den Trigger verwendet. Für die Analyse wurden aus diesen Daten 387.616 minimum bias und 577.605 zentrale Ereignisse ausgewählt. Die minimum bias Daten werden in verschiedene Zentralitätsklassen eingeteilt. Die Xi- (Xi+)-Hyperonen werden von NA49 nicht direkt detektiert. Stattdessen werden Kandidaten aus den Tochterteilchen (Lambda (Antilambda) und Pi - (Pi+)) des schwachen Zerfalls rekonstruiert. Die Häufigkeit der Hyperonen wird dann mit Hilfe statistischer Methoden extrahiert. Diese Methode liefert nicht nur die gewünschten Kandidaten sondern auch einen großen kombinatorischen Untergrund, den man durch geeignete, geometrische Einschränkungen reduzieren kann. Dazu wird eine Signifikanzstudie für die entsprechenden geometrischen Größen durchgeführt und auf diese Weise die besten Einschränkungsbedinungen gefunden. Da das NA49-Experiment auf Grund seiner Geometrie nicht den kompletten Phasenraum erfassen kann und die Effizienz, mit der Teilchen detektiert werden, begrenzt muss auf diese Effekte korrigiert werden. Um diese Korrektur zu bestimmen führt eine Simulation durch. Man simuliert Xi- -Hyperonen und überprüft, wie viele mit gleichen Verfahren, das man zur Datenbestimmung verwendet, in jedem Phasenraumbereich wiedergefunden werden können. Unter Verwendung dieser Korrektur erhält man die Transversalimpulsspektren bei mittlerer Rapidität für Xi- in vier verschiedenen Zentralitätsklassen. Aus diesen Spektren lässt sich die Anzahl der Xi- -Hyperonen bei mittlerer Rapidität pro Kollision ermitteln. Sie steigt von 0,12+-0,01 bei peripheren Stößen auf 1,23+-0,07 zu zentralen Stößen hin an. Zudem kann man aus der Steigung der pt-Spektren den Temperaturparameter T berechnen. Dieser bewegt sich im Bereich von 226 bis 292 MeV, zeigt aber keine eindeutige Zentralitätsabhängigkeit.....
Tagungsvorträge werden als MP3-Files zum Anhören angeboten. Das Motiv: 2003 stand der 100. Geburtstag Theodor W. Adornos auf der Tagesordnung des kulturellen und akademischen Geschehens. Adorno war sicherlich einer der wirkungsmächtigsten Philosophen und Theoretiker der Gesellschaft des 20. Jahrhunderts. Seine Schriften sind weltweit verbreitet und haben unzählige Wissenschaftler aus den verschiedensten Disziplinen anhaltend inspiriert. Wo immer man in der Welt als Frankfurter Hochschullehrer auf geistig tätige Menschen trifft, man wird auf Adorno angesprochen. Zum Schicksal eines jeden Klassikers gehört es, dass es einen Streit um das Erbe gibt und sich folglich verschiedene Strömungen auf das Vorbild beziehen. Zugleich provoziert das die unausgesetzte Debatte darum, ob das Werk nicht bereits historisch geworden sei und uns für unsere Zeit also nicht mehr viel zu sagen habe. Oder ob es klassisch: unvergänglich vergangen sei, und damit ein starker Anstoß zum Weiterdenken geblieben sei. Hinter dieser, in vielen Buchpublikationen und Feuilletons (insbesondere in der Frankfurt Allgemeinen Zeitung) geführten Debatte um die Aktualität der kritischen Theorie und des Denkens Adornos verschwindet leicht die aufmerksame Beobachtung, was denn nach Adornos Tod 1969 von seinen direkten oder mittelbaren Schülern in den Feldern geleistet worden ist, auf die insgesamt sich das Genie Adornos beziehen konnte. Es stand zu befürchten, dass das Jubiläum als Geburtstagsfeier einer Geistesgröße mit einer Fülle von Erinnerungen und Würdigungen vollzogen wird, ohne dass der doch ungleich interessanteren Frage nachgegangen würde, in welcher Hinsicht das Werk Adornos in den produktiven Arbeiten heutiger Wissenschaftler lebendig geblieben ist. Inhaltliche Akzente: Lebendigkeit bedeutet keineswegs die Fortsetzung eines orthodox verwalteten Erbes, sondern verweist notwendig auf oft eigensinnige Versuche, die Denkmittel Adornos im Sinne seiner Kritik an der Gesellschaft zu nutzen. Lebendigkeit konkretisiert sich also nicht als Traditionspflege oder als wohlfeile Revision von Positionen, über die die Zeit hinweggegangen sein soll, sondern im sachhaltigen Aufweis ihrer Aktualität durch Arbeiten, mit denen aus unterschiedlicher fachlicher Sicht kritische Theorie als fortgesetztes Arbeitsprogramm deutlich wird. Insofern diente der Kongress der systematischen Überprüfung und Dokumentation der in produktiver Forschung sich ausdrückenden Lebendigkeit der Ansätze Adornos sowie der Ausarbeitung der Aufgaben für die nähere Zukunft. Zugleich wird damit nicht weniger beansprucht als einen repräsentativen Überblick zu geben, wie es heute mit der Aufklärung selbst bestellt ist. Auf der Tagung sprachen Wissenschaftler sprechen, die in den vergangenen Jahrzehnten bewiesen haben, dass sie mit ihrem Forschungsprogramm die Diagnose der Gesellschaft, inspiriert durch jene Denkmittel, insbesondere auf unbearbeitetem Terrain fortgeführt haben und die zugleich für die Zukunft die Untersuchung von Fragen versprechen, die auf der Tagesordnung der Aufklärung stehen. Jeder Vortragende wird seine Arbeiten in den Kontext auch derjenigen stellen, die innerhalb seines Faches ebenfalls von Kritischer Theorie beeinflusst wurden. Im Vordergrund der Darstellung soll aber die eigene bislang geleistete Arbeit unter der Fragestellung der Tagung rekapituliert werden und schlaglichtartig erkennbar gemacht werden, in welchem Sinne Fragen der gegenwärtigsten Gegenwart mit den theoretischen Figuren Adornos kommunizieren.
Die vorliegende Arbeit beschäftigt sich mit der Produktion positiv und negativ geladener Pionen im System Au+Au bei einer kinetischen Strahlenergie von 1,5 GeV pro Nukleon. Diese Daten wurden im Juli 1998 mit dem Kaonenspektrometer KaoS gemessen. Es liegen Pi-Minus-Spektren bei drei verschiedenen Laborwinkeln (Theta Lab = 40°, 48°, 60°) vor sowie Pi-Plus-Spektren bei fünf Laborwinkeln(Theta Lab = 32°, 40°, 48°, 60°, 71,5°). Die Spektren können als Funktion der Energie im Nukleon-Nukleon-Schwerpunktssystem mit der Summe zweier Boltzmannverteilungen beschrieben werden, deren Steigung sich ebenso wie der unter Annahme isotroper Emission im Schwerpunktssytem integrierte Wirkungsquerschnitt mit dem Laborwinkel ändert. Als mögliche Ursache dieses Verhaltens wird untersucht, ob eine polare Anisotropie der Emission vorliegt. Eine solche wurde in früheren Experimenten [49, 50] für die Pionenproduktion in Proton-Proton-Stößen gefunden und als Effekt der p-Wellen-Produktion von Pionen interpretiert, bei der als Zwischenschritt eine Resonanz, zumeist eine Delta-Resonanz, angeregt wird. Die Zerfallskinematik dieser Resonanzen bewirkt duch ihren Drehimpuls eine Winkelverteilung der emittierten Pionen [24]. In Kern-Kern-Stößen führt die Abschattung von Pionen durch nicht an der Reaktion teilnehmende Nukleonen zu einer zusätzlichen Richtungsabhängigkeit der Emission. Unter der Annahme, daß Energie- und Winkelabhängigkeit separierbar sind, wird in einem einfachen Modell der Winkelanteil des differentiellen Wirkungsquerschnitts als Funktion des Kosinus des Schwerpunktswinkels mit einer Parabelform beschrieben. Um den Anpassungsparameter a2, der die Stäke der Anisotropie quantifiziert, zu ermitteln, stehen zwei Methoden zur Verfügung, die simultane Anpassung der bei festem Laborwinkel gemessenen Spektren und der Vergleich mit einer durch Schnitte durch die Laborimpulsspektren erzeugten Verteilung bei Theta cm = 90°. Beide Verfahren ermitteln erfolgreich den Anisotropieparameter aus in einer Monte-Carlo-Simulation erzeugten Spektren mit parabelförmiger Winkelverteilung. Die mit beiden Methoden ermittelten a2-Werte stimmen für Pi+ wie für Pi- im Rahmen der Fehler überein. Die Winkelverteilung der Pi+ ist mit a2 = 0,7 +- 0,1 stärker ausgeprägt als die der Pi- mit a2 = 0,4 +- 0,1, beide werden bevorzugt unter Theta cm = 0° und Theta cm = 180° emittiert. Allerdings zeigt sich in beiden Methoden eine starke Abhängigkeit von der Phasenraumabdeckung der Daten und beide sind nicht geeignet, eine Abhängigkeit des Anisotropieparameters von der Pionenenergie zu ermitteln....
Bei den Projekten wie der Europäischen und der Amerikanischen Spallationsneutronenquelle aber auch den geplanten aktuellen Großprojekten wie dem Upgrade von CERN oder ISIS werden negative Ionen benötigt. Bei solchen Anlagen werden am Ende des üblichen linearen Beschleunigers Speicherringe eingesetzt, die den Teilchenstrom akkumulieren und danach longitudinal komprimieren. Durch die Verwendung eines Strahls aus negativen Ionen kann die Injektion in den Speicherring wesentlich vereinfacht werden. In der vorliegenden Dissertation wurde die Extraktion und der Transport von negativen Wasserstoffionen für den ersten Abschnitt eines Linearbeschleunigers, bestehend aus Quelle, Extraktion und niederenergetischem Strahltransport (LEBT), sowohl experimentell als auch theoretisch untersucht. In dieser Sektion wird der grundlegende Strahlstrom und die Strahlqualität eines Linearbeschleunigers definiert. Eine komplette Untersuchung dieses Abschnitts lag bis dato für negative Ionen nicht vor. Um die Unterschiede aufzudecken und die einflußnehmenden Größen zu bewerten, mußten alle Experimente sowohl mit positiven als auch mit negativen Ionen durchgeführt werden. In allen Sektionen führen verschiedene Faktoren zu Strahlstromverlusten und Qualitätsverschlechterung, sprich Emittanzvergrößerung. Im Zuge dieser Arbeit wurde eine Quelle für negative Ionen entwickelt und gebaut und eine neue Methode zur Produktionssteigerung von negativen Ionen entwickelt. Die Innenwand der Plasmakammer der Ionenquelle wurde mit dem Edelmetallkatalysator Platin beschichtet. Die Plasmazusammensetzung innerhalb der Quelle verlagerte sich dadurch auf 80–90% H3 , 5-10% H2 und nur noch ein geringer Anteil an Protonen. Dieser hohe molekulare Anteil war über eine große Spanne aller Plasmaparameter stabil und führt zu einer drastischen Produktionssteigerung von angeregtem H2 und H- . Zur Formierung des Ionenstrahls wurde von mir ein sogenannter stromtoleranten Extraktor entwickelt. Trotz einer Veränderung des extrahierten Stroms um den Faktor 5 kommt es mit diesem Extraktor zu keinem nennenswerten Emittanzwachstum. Dieser eignet sich allgemein für die Extraktion gepulster Ionenstrahlen, im Besonderen aber für die Extraktion von negativen Ionen, da hierbei gleichzeitig Elektronen mit extrahiert werden. Dieser meist hohe Strahlanteil aus hochenergetischen Elektronen muß vor dem Einschuß der negativen Ionen in den RFQ durch ein geeignetes System aus dem Strahl ausgelenkt und abgeführt werden. Grundlagen, Entwicklung und Einflüsse dieser sogenannten Dumpingsysteme werden in Kap. 5 beschrieben. Für die Realisierung einer Niederenergietransportstrecke für negative Ionen stehen die beiden Möglichkeiten des magnetischen LEBT (Kap. 6) und des elektrostatischen LEBT (Kap. 7) zu Verfügung. Mit verschiedenen Meßaufbauten werden im anschließenden Kap. 8 die in den vorigen Kapiteln aufgeführten relevanten Größen der Erzeugung, der Extraktion und des Transport experimentell untersucht. Zusätzlich zu den bekannten klassischen Analyseverfahren kommen im Rahmen dieser Arbeit entwickelte optische Meßmethoden zum Einsatz, mit deren Hilfe man Plasmatemperatur und Plasmaverteilung innerhalb der Ionenquelle bestimmen kann. Mit Hilfe der Untersuchungen gelang es, die Unterschiede zwischen der Extraktion von negativen Ionen und von positiven Ionen aufzuzeigen und mit Hilfe der experimentellen Beobachtungen ein neues Modell für die Extraktion von negativen Ionen zu entwickeln. Mit der vorliegenden Arbeit wurde zudem gezeigt: - Der extrahierbare negative Strom ist hauptsächlich abhängig vom Diffusionsprozeß der Teilchen durch einen positiven Potentialwall innerhalb der Ionenquelle. - Durch Kompensation der magnetischen Felder in der Extraktionsregion wird die Emittanz reduziert und der Strom gesteigert. - Der beobachtete planare Plasmameniskus wird maßgeblich durch die rückfließenden Restgasionen beeinflußt. - Der Transport der negativen Ionen mit einer magnetischen LEBT stellt kein wesentliches Problem dar, da eine hinreichende Anzahl an positiven Restgasionen für den raumladungs-kompensierten Transport vorliegt.
Ein Schwerpunkt der physikalischen Fragestellungen, die zur Entwicklung des Dileptonenspektrometers HADES führten, ist die präzise Vermessung des invarianten Massenspektrums von Dileptonen, die in zentralen Reaktionen von relativistischen Schwerionen entstehen. In den Spektren sind die leptonischen Zerfälle der Vektormesonen enthalten. Aus Position und Breite der entsprechenden Signale kann auf eine mögliche Veränderung der Eigenschaften von Vektormesonen im dichten und heißen Kernmedium geschlossen werden. Für die Rekonstruktion der Teilchentrajektorien der Elektronen und Positronen werden die Vieldraht-Driftkammern verwendet, und unter Berücksichtigung des Magnetfelds kann der Teilchenimpuls mit hoher Genauigkeit bestimmt werden. Die hohe Impulsauflösung gepaart mit einer großen Akzeptanz und einem effektiven Trigger, ist eine notwendige Voraussetzung für das Studium von Dileptonen im SIS Energiebereich 1-2 GeV per Nukleon. Eine Flugzeitwand ermittelt über die Teilchenmultiplizität die Zentralität des Stoßes und hilft mittels der Flugzeit bei der Identifikation von Teilchen, insbesondere der Hadronen. Elektronen werden mit Hilfe spezieller Detektoren (Ringabbildender Cherenkov Detektor und Schauerdetektor) identifiziert. Ein effizientes Triggerkonzept zusammen mit einer innovativen Datenaufnahme ermöglicht, solche Ereignisse, in denen sich Dileptonenkandidaten befinden, schnell zu erkennen und dann zu registrieren, um so in kurzer Zeit eine hinreichende Statistik an Dileptonen zu erhalten. Im Rahmen dieser Forschungsarbeiten war das Ziel der Diplomarbeit, die Untersuchung des Ansprechverhaltens der Driftkammern auf Myonen aus der kosmischen Höhenstrahlung und deren Positionen relativ zur Flugzeitwand zu bestimmen. Da die Myonen aus der kosmischen Höhenstrahlung ähnliche Signale in den Vieldraht-Driftkammern hervorrufen wie die in den Schwerionenreaktionen produzierten minimal ionisierenden Teilchen, war es möglich, unabhängig von Strahlzeiten das Ansprechverhalten der Vieldraht-Driftkammern zu untersuchen. Um dieses zu erforschen, wurde zunächst ein spezieller Trigger aufgebaut, der auf Koinzidenzen von gegenüberliegenden Flugzeitwand-Sektoren beruht. So konnte das Durchqueren eines Myon-Kandidaten durch das Spektrometer registriert, und die Teilchentrajektorie vom Ein- bis zum Austritt aus diesem nachvollzogen werden. Die primären Messgrößen, wie die Driftzeiten, und die Korrelation zwischen den Driftkammern und der Flugzeitwand, wurden untersucht und mit Daten aus dem Strahlzeit-Experiment vom November 2001 C+C bei 1,9 GeV per Nukleon verglichen. Weiterhin wurde nach Entwicklung einer Myonen-Kandidatensuche die Effizienz der Driftkammern analysiert. Dabei stellte sich heraus, dass die Driftkammerebenen des Sektors 1 eine Nachweiswahrscheinlichkeit für kosmische Myonen von über 93% aufzeigen. Eine Optimierung der Methode hinsichtlich der Ortsauflösung und Korrelationen zu anderen Drahtebenen oder Driftkammern anderer Ebenen kann in Zukunft in Angriff genommen werden. Da die Intensität der Myonen gering ist, und sie in den meisten Fällen das Spektrometer auf geraden Bahnen durchqueren, sind Vieldeutigkeiten minimiert. So war es möglich, die Positionen der Driftkammern relativ zur Flugzeitwand mit einer Genauigkeit, die durch die Ortsauflösung der Szintillatoren der Flugzeitwand dominiert ist, zu ermitteln. Im Vergleich zu den Standard-Justierungsparametern ergeben sich Abweichungen von bis zu 37,73 mm für die Relativpositionen der Vieldraht-Driftkammern im Vergleich zur Flugzeitwand mit einer Ungenauigkeit von maximal ±7 mm. Um die für das invariante Massenspektrum der Dileptonen notwendige Massenauflösung zu erreichen, wird empfohlen, die Relativpositionen der Driftkammern zueinander und zum Magnetfeld zu bestimmen. Hierfür muss die exakte Ortsinformation des Durchstoßpunktes des Myons auf die Driftkammer über eine Anpassung der Trajektorie berechnet werden. Daraufhin können die Positionen der Driftkammern relativ zueinander mit einer Genauigkeit von < 100 mm ermittelt werden.
Die mittelamerikanische Jagdspinne Cupiennius salei Keys. zeigt nach Reizung ventraler Tasthaare auf den proximalen Beingliedern in freier Natur und auch im Labor das relativ einfache, reflektorische Verhalten des „Körperanhebens“. Ziel der vorliegenden Arbeit war, den am Körperanheben maßgeblich beteiligten Coxamuskel c2 hinsichtlich seiner Anatomie, seiner funktionellen Faserzusammensetzung und Innervation sowie seiner Aktivität beim „Körperanheben“ und bei weiteren Bewegungsweisen der Spinne zu untersuchen. (1) Der c2-Muskel liegt im Prosoma der Spinne und setzt für jedes Bein am anterioren Coxarand an. In den 1. - 3. Beinpaaren liegt c2 zweigeteilt (apodemaler und tergaler Anteil), im Hinterbeinpaar dagegen einteilig (nur tergaler Anteil) vor. (2) Histochemische Nachweisreaktionen (Glykogengehalt, relative Succinatdehydrogenase- und relative myofibrilläre Adenosintriphosphatase-Aktivität) ergeben eine heterogene Faserzusammensetzung des c2-Muskels aus 4 Muskelfasertypen (A, B, C, D). Der apodemale c2-Anteil besteht homogen aus A-Fasern. (3) Messungen mit Laserdiffraktometrie zeigen für die A- und B-Fasern signifikant kürzere Sarkomerlängen als für die C- und D-Fasern. (4) Sodium-Dodecylsulfat-Polyacrylamid-Gelelektrophorese weist als Besonderheit für die A- und B-Fasern eine Paramyosin-Isoform P1 (107 kDa), eine Isoform der leichten Ketten des Myosins LC2 (22 kDa) und vermehrt eine Troponin-Isoform T4 (46 kDa) nach. In den Cund D-Fasern kommt allein eine 43-kDa-Bande und vermehrt eine Troponin-Isoform T2 (50 kDa) vor. (5) Der c2-Muskel der Vorder- und Hinterbeine wird durch einen eigenen Nerv innerviert. Retrograde Anfüllungen („Backfills“) des Nervs mit neuronalen Tracern legen eine polyneurale Innervation des c2-Muskels aller Beine dar, höchstwahrscheinlich jeweils durch 6 Motoneurone. Zwei davon sind jeweils positiv GABA (Gamma-Amino-Buttersäure) -immunreaktiv; dies ist ein Hinweis auf eine mögliche inhibitorische Innervation des c2-Muskels. (6) Wie Elektromyogramme freilaufender Spinnen zeigen, besteht das Körperanhebeverhalten aus zwei aufeinanderfolgenden Reaktionen: einer lokalen c2-Kontraktion im taktil gereizten Bein, die eine Bewegung im zugehörigen Prosoma-Coxa-Gelenk verursacht, und einer durch diese aktive Bewegung hervorgerufenen plurisegmentalen Reaktion im c2 der übrigen 7 Beine. Wird eine Coxa passiv bewegt, kann auch in festgelegten Spinnen eine plurisegmentale Reaktion aller 8 Beine ausgelöst werden. (7) Sowohl bei der lokalen als auch bei der plurisegmentalen Reaktion des „Körperanhebens“ rekrutiert c2 die gleichen neuromuskulären Einheiten. Dies deutet auf die gleiche zentalnervöse Endstrecke beider Reaktionen hin. Die Anzahl der elektrophysiologisch unterscheidbaren neuromuskulären Einheiten stimmt mit der der anatomisch nachgewiesenen Motoneuronen und Fasertypen überein. (8) Der tergale c2-Anteil ist immer, der apodemale Anteil nur bei schnellem Körperanheben, schnellen Laufstarts und bei Schreckreaktionen (Flucht) der Spinne aktiv. Hierbei rekrutiert der apodemale Teil nur zu Beginn der Verhaltensweise schnelle phasische Einheiten. (9) Ich diskutiere bei welchen Bewegungsweisen der Spinne die 4 Fasertypen vermeindlich zum Einsatz kommen, wie sie höchstwahrscheinlich innerviert werden und welche Konsequenzen die c2-Zweiteilung in den vorderen Beinpaaren (1 - 3) auf die Beinbewegung im Verhalten haben könnte. Am wahrscheinlichsten ist eine verstärkte Druckerhöhung zur Beinextension durch schnelle anfängliche Kontraktionen des „apodemalen Hebels“ und eine vektorielle Kräfteaddition der zwei Muskelteile. (10) Anhang II behandelt den internen Gelenkrezeptor R0 im Prosoma-Coxa-Gelenk. Ausschaltversuche weisen R0 als unentbehrlich für das Zustandekommen der plurisegmentalen Reaktion aus. Lage und Anordnung der R0-Sinneszellen sind in den Beinpaaren 1 - 3 und den Hinterbeinen verschieden.
Beim zentralen Stoß zweier ultrarelativistischer Schwerionen wird ein Zustand extremer Dichte und Temperatur erzeugt, der die Bildung des postulierten Quark-Gluon-Plasmas ermöglichen sollte. Diese neue Phase von Kernmaterie zeichnet sich dadurch aus, daß Quarks und Gluonen ohne den unter Normalbedingungen herrschenden Einschluß in Hadronen frei beweglich sind. Das Experiment NA49 am CERN SPS untersucht Kollisionen von 208Pb-Kernen. Dazu wird ein Bleistrahl mit einer Energie von 158 GeV/Nukleon auf ein im Laborsystem ruhendes Bleitarget geschossen. Das Detektorsystem ist auf den Nachweis des hadronischen Endzustands der Reaktion spezialisiert und erlaubt die Messung von mehr als 60% der etwa 2000 produzierten Hadronen. Diese große Zahl von meßbaren Teilchen macht die Untersuchung von Spektren einzelner Ereignisse möglich, die mit dem über alle Ereignisse gemittelten Spektrum verglichen werden können. Damit will man Fluktuationen von Ereignis zu Ereignis, sogenannte Einzelereignisfluktuationen, nachweisen. Um eine von der Unterteilung der Spektren in Bins unabhängige Untersuchung durchführen zu können, wurden die Einzelverteilungen mit Hilfe von Wavelettransformationen in eine Vielskalendarstellung überführt. Durch die anschließende Berechnung von faktoriellen Momenten der Waveletkoeffizienten war daher eine Korrelationsanalyse auf verschiedenen Skalen möglich. Es wurden breit angelegte Simulationen durchgeführt, die quantitative Aussagen über das Verhalten der faktoriellen Waveletmomente bei verschiedenen Arten der Eingangsverteilungen - als Beispiel seien hier flach- und gaußverteilte Spektren genannt - möglich machten. Die Multiplizitätsabhängigkeit der Verteilungsbreite der faktoriellen Waveletmomente der Ordnung q von Ereignissen mit gleichverteilten Einträgen ergab sich so zu einer Gesetzmäßigkeit von der Form sigma q(m) ~ m exp (-q/2). Die Untersuchungen der experimentell erhaltenen p-Spektren zeigten im Rahmen der statistischen Fehler auf keiner Skala eine signifikante Abweichung von den aus Simulationen mit rein zufälligen Einträgen erhaltenen Ergebnissen. Im Vergleich mit Simulationsrechnungen wurde eine obere Grenze für das Auftreten lokaler nichtstatistischer Fluktuationen gesetzt. Solche Fluktuationen werden z.B. in DCC-Modellen vorhergesagt. Die in der Analyse der Waveletmomente festgestellte Abwesenheit lokaler Fluktuationen steht in qualitativer Übereinstimmung mit der Analyse globaler Einzelereignisvariablen (z.B. <p-i->), die ebenfalls auf ein System mit minimalem Korrelationsinhalt hinweisen.
Im NA49-Experiment wird der hadronische Endzustand von Kern und Protonen induzierten Reaktionen gemessen, um die Eigenschaften von Kernmaterie unter extremen Bedingungen zu untersuchen. Dabei stellt die Flugzeitmessung ein wichtiges Instrument zur Teilchenidentifizierung dar. Der von Yu.N. Pestov 1971 erstmal vorgestellte und nach ihm benannte Pestov-Zähler ist ein gasgefüllter Parallelplatten-Zähler, der im Funken/Überschlag-Modus betrieben wird. Die Besonderheit dieses Zählers ist die Lokalisierung der Entladung, die durch eine Anode aus halbleitendem Glas mit einem hohen spezifischen Widerstand und ein Zählgas mit großer Photonen-Absorption erreicht wird. In der Protonenstrahlzeit 1997 wurde der PesTOF-Detektor (Pestov Time Of Flight) bestehend aus zwölf einzelnen Zählern, erstmals im Vertex-1 Magneten des NA49-Experimentes eingesetzt. Neben der guten Zeitauflösung sind die Unempfindlichkeit gegenüber dem magnetischen Feld und die gute Ortsauflösung die auch bei großen Spurdichten ein korrektes Zuordnen der Treffer ermöglicht, die Voraussetzungen für diesen Einsatz. Der kinematische Akzeptanzbereich für die Identifikation von Pionen liegt bei Rapiditäten von y ~ 2-5 - 3 und Tranzversalimpulsen von pt <= 500 MeV/c. Der Akzeptanzbereich der Kaonen liegt bei einer Rapidität von y ~ 2 und Tranzversalimpulsen von pt <= 500 MeV/c. Der Detektor konnte über den gesamten Zeitraum stabil und zuverlässig betrieben werden. Die gemessene gaußförmige Zeitauflösung beträgt 78 ps, wobei die Hochspannung die 1.5fache Schwellenspannung betrug. Neben dem gaußförmigen Anteil der Zeitauflösung zeigt der Detektor jedoch auch einen asymmetrischen nicht gaußförmigen Anteil ("Tail"). Aufgrund einer verzögerten Funkenentwicklung im Zähler liegen etwa 12.6% der Signale außerhalb der gaußförmigen Verteilung bzw. sind etwa 4% der Signale um mehr als 500 ps verspätet. Neuere Untersuchungen mit anderen Zählgasen und Zählergeometrien haben gezeigt, dass der Anteil der verzögerten Signale in Zukunft deutlich reduziert werden kann. Der Verlauf der gemessenen pt und mt-Verteilungen der identifizierten Kaonen und Pionen kann durch Simulationen mit dem VENUS-Modell reproduziert werden. Mit der möglichen Verbesserung der Zeitauflösung und dem geplanten Ausbau des PesTOF-Detektors mit bis zu 80 einzelnen Zählern wird der Impuls- und Akzeptanzbereich, in dem Teilchen identifiziert werden können, deutlich vergrößert werden. Die Messungen dieser Arbeit geben einen Ausblick darauf dass es in Zukunft möglich sein wird, relevante physikalische Größen mit dem PesTOF-Detektor im NA49-Experiment zu messen. Insbesondere in nicht symmetrischen Stoßsystemen ist der Einsatz von Flugzeitdetektoren in dem rückwärtigen kinematischen Bereich der Reaktion interessant. Mit den in dieser Arbeit gefundenen positiven Eigenschaften und den sich abzeichnenden Modifikationen am Zählgas und Zähler ist der Pestov-Zähler ein interessanter Detektor für zukünftige Experimente.
Im Rahmen dieser Arbeit wurde ein Prototyp einer Spurendriftkammer mit Mikrostreifenauslese, wie sie als hochauflösende Spurendetektoren in der Kern- und Teilchenphysik zum Einsatz kommen sollen, konstruiert und getestet. Besonderes Augenmerk lag hierbei auf der Signalform und -verteilung, sowie auf dem Langzeitverhalten. Für die verschiedenen Messungen dieser Arbeit wurden die Mikrostreifen-Gasdetektoren in ein Edelstahlrohr eingebaut, das mit einem Vakuumpumpen-System verbunden ist. Durch Evakuieren der Meßapparatur und anschließendes Befüllen mit Zählgas konnten die Detektoren nach kurzer Zeit mit nur geringen Verunreinigungen des Zählgases durch Wasser und Sauerstoff betrieben werden. Als Substrat wurde das Glas S 8900 von Schott verwendet, dessen Leitfähigkeit von rho 1.1 * 10 exp 11 Omega cm durch Elektronenleitung erzeugt wird. Es wurden Mikrostreifen-Platten mit zwei verschiedenen Strukturen untersucht, die sich in der Form der Kathode voneinander unterscheiden. Die Mikrostreifen-Platten haben eine sensitive Fläche von 30 X 40 mm*mm die Breite der Anodenstreifen beträgt 8 mikrometer bei einem Abstand von 1 mm zwischen den Mittellinien von je zwei Anoden. Die Kathoden der Struktur ILL6c bestehen aus einem durchgehenden 400 mikrometer breiten Streifen. Die Kathoden der Struktur ILL6a sind in zwei 8 mikrometer breite Streifen unterteilt, wobei die Gesamtbreite der Kathoden beider Strukturen gleich ist. Die Kopplung des Anodensignals auf die rückseitigen Kathodensegmente (Pads) ist bei der Struktur ILL6a durch die geöffneten Kathoden im Vergleich zur Struktur ILL6c doppelt so groß (51.6% bei einer Glasdicke von 0.45 mm bzw. 31.3% bei 1 mm und 16.9% bei 2 mm. Mit einer gamma-Quelle 55-Fe wurden Untersuchungen von Alterungseffekten durchgeführt, in deren Verlauf an den Anoden eine Ladung von 46 mikroC/cm pro Tag aufgenommen wurde. Simultan wurde ein Draht-Proportionalzähler mit geringerer Rate zur Überwachung der Gasqualität betrieben und damit die Amplitude der Mikrostreifen-Gasdetektoren korrigiert. Die Mikrostreifen-Gasdetektoren konnten bis zu einer Ladung von 125 mikroC/cm in Ar/CH4 bzw. 200 mikroC/cm in Ar/CO2 (90:10) mit einer Energieauflösung von <= 25% (55Fe-Quelle, FWHM) und geringer Variation der Verstärkung betrieben werden. Zur Messung der Breite Theta0 der Kathoden-Ansprech-Funktion (Pad-Response-Funktion) dienten Elektronenspuren, die mit Hilfe einer stark kollimierten Beta-Quelle (90Sr) erzeugt wurden. Die Spuren wurden durch einen 50 cm langen Feldkäfig, der wie die Feldkäfige der NA49-Spurendriftkammern aus aluminisierten Mylarstreifen aufgebaut ist, zur Ausleseebene gedriftet. Auf der Rückseite der Mikrostreifen-Platten befinden sich 1 mm breite Pads mit einem Abstand von 0.5 mm in zwei verschiedenen Anordnungen (isoliert oder mit der Glasrückseite verbunden). Diese Messungen wurden mit verschiedenen Glasdicken durchgeführt: Glasdicke 0.45 mm: theta-0 = 0.51 - 0.94 mm, Glasdicke 1 mm: theta-0 = 0.91 - 1.1 mm, Glasdicke 2 mm: theta-0 = 1.4 mm. Im Rahmen dieser Arbeit konnte gezeigt werden, daß es mit Hilfe der Mikrostreifentechnologie möglich ist, Spurendriftkammern mit einer kleineren Breite theta 0 der Pad-Response-Funktion zu konstruieren, als es mit konventionellen Draht-Ausleseebenen großflächig machbar wäre. Dadurch kann insbesondere die Zweispurauflösung verbessert werden.
Die Stoßparameterbestimmung, an den zur Zeit im Bau befindlichen bzw. geplanten Schwerionen-Collidern RHIC und LHC ist nicht mehr wie bei Experimenten mit festem Target über die Messung der Summe aller Spektatoren möglich. Am einfachsten sind die neutralen Spektatoren (Neutronen) nachzuweisen. Diese enden bei RHIC jedoch in einem Bereich zwischen den zwei Strahlrohren, der die Größe eines Detektors auf 10 cm Breite und 130 cm Länge beschränkt, was im Vergleich zu der Breite herkömmlicher Kalorimeter, die zur Messung von Spektatoren eingesetzt werden, sehr klein ist. Die Anzahl neutraler Spektatoren kann über deren Gesamtenergie bestimmt werden, da sie im wesentlichen den Strahlimpuls behalten. Am RHIC wird zu beiden Seiten der vier Wechselwirkungszonen je ein Kalorimeter zur Messung der neutralen Spektatoren installiert(d.h. insgesamt 8 Kalorimeter). Diese Kalormeter werden aus Wolfram bestehen und eine Länge von 6 hadronischen Wechselwirkungslängen haben. Zusätzlich sollen mit diesen Detektoren einzelne Neutronen aus Riesenresonanz-Abregungen gemessen werden. Über die Rate der Koinzidenz dieser einzelnen Neutronen auf beiden Seiten der Wechselwirkungszone soll die Luminosität des Beschleunigers bestimmt werden. An die Detektoren wurde in erster Line die Forderung nach einer Energieauflösung von ca 20% gestellt, um das Signal der einzelnen Neutronen vom Untergrund trennen zu können. Für die Messung der neutralen Spektatoren, deren erwartete Anzahl im Bereich von ~ 10 - 40 liegt, ist die Energieauflösung nicht so kritisch. Fluktuationen in der Signalhöhe des Detektors werden durch die Messung mehrerer Neutronen zum Teil kompensiert, die Energieauflösung skaliert mit der Anzahl der Neutronen Nn wie 1/sqrt(Nn). Weiterhin wurde die Forderung einer Zeitauflösung theta < 300 ps gestellt. Dies ist zum einen nötig, um bei der Messung der korrelierten Emission einzelner Neutronen zur Luminositätsbestimmung zufällige Koinzidenzen zu vermeiden. Weiterhin kann der Ort der Wechselwirkung über eine Laufzeitmessung der Spektatoren zu beiden Seiten des Wechselwirkungspunktes auf einige cm genau bestimmt werden. Eine neue Kalorimeter-Bauform, das Cherenkov-Licht-Kalorimeter, ermöglicht es hadronische Kalorimeter mit geringen lateralen Ausmaßen zu konstruieren, da nur der zentrale Teil des hadronischen Schauers zum Signal beiträgt. Cherenkov-Licht-Kalorimeter bestehen aus einem Absorbermaterial und darin eingebrachten Lichtleitern, in denen relativistische geladene Teilchen des Schauers Cherenkov-Strahlung erzeugen. Es wurden zwei Prototypen aus Kupfer bzw. Wolfram mit PMMA-Lichtleitern am SPS (CERN) im 100 GeV/c- und 158 GeV/c-Protonstrahl getestet. Beide Prototypen haben eine Länge von 8 hadronischen Wechselwirkungslängen Lambda I und einen Querschnitt von 10 x 10 cm*cm. Das Kupferkalorimeter ist longitudinal in 8 Module zu je a Lambda I Länge unterteilt, das Wolframkalorimeter besteht aus 4 Modulen von je 2 Lambda I Länge. Die Lichtleiter laufen bei beiden Prototypen unter 45 Grad relativ zur Strahlachse. In früheren Untersuchungen von Gorodetzky et al. wurde festgestellt, daß in dieser Anordnung, das maximale Signal erzeugt wird. Die Energieauflösung des Kupferkalorimeters beträgt 21.8 +- 0,5% RMS/E bei 100 GeV/c Strahlimpuls. Das Wolframkalorimeter hatte im 100 GeV/c-Protonstrahl eine Energieauflösung von 20.5 +- 0.5% RMS/E. Bei beiden Prototypen wurde eine Zeitauflösung von theta < 200 ps gemessen.
Untersuchungen des elektrischen und magnetischen Feldes in den NA49-TPCs mit Hilfe von Laserspuren
(1997)
Das Experiment NA49 am Europäischen Zentrum für Teilchenphysik (CERN) in Genf dient der Erforschung von relativistischen Schwerionenkollisionen. Dieses Feld der Kernphysik hatte seine Anfänge erst in den 70er Jahren am BEVALAC in Berkeley und untersucht zur Zeit Schwerionenstöße von einigen hundert MeV/Nukleon bis 200 GeV/Nukleon. Nach den heuteüblichen Experimenten mit festem Target sollen in der Zukunft Colliderexperimente mit Schwerionen neue Energiebereiche erschließen. Während die Experimente dadurch erleichtert werden, daß sie zumeist auf bestehende Beschleunigeranlagen aus der Hochenergiephysik zurückgreifen können, ist die theoretische Beschreibung relativistischer Schwerionenstöße ausgesprochen problematisch. Vom Verständnis dieser Reaktionsmechanismen erhoff t man sich aber einen Zugang zur starken Wechselwirkung bei niedrigen Impulsüberträgen, insbesondere in ausgedehnten Systemen.
Die vorliegende Arbeit beschäftigt sich mit der Messung der Elektronen-Driftgeschwindigkeit in dem Gasgemisch Ne/CO2 (90% / 10 %). Durchgeführt wurde sie zur Optimierung der Spurendriftkammer des ALICE-Projektes am CERN. Mit dem Aufbau zur Driftgeschwindigkeitsmessung läßt sich eine Genauigkeit von 1‰ erzielen. Untersucht wurden mit diesem Anspruch die Abhängigkeiten von der Temperatur, von CO2 Konzentrationsänderungen sowie von Stickstoffzugabe. Für die genaue Messung der Driftgeschwindigkeit wurde eine kleine Driftkammer gebaut. Die Ionisation des Gases erfolgt mit Hilfe eines UV-Lasers, dessen Strahl zunächst aufgeweitet, und dann geteilt wird. Der Abstand der so erhaltenen zwei Laser-Strahlen wird mit Hilfe von zwei präzisen Doppelblenden definiert. Zur Kontrolle der Gaszusammensetzung und -qualität wurde eine Gasanalysestation zusammengestellt. Die aufgenommenen Daten werden über ein ADC-System auf einem Computer gespeichert. Damit können in der Analyse die Driftgeschwindigkeitsdaten mit den Gasdaten zeitgleich ausgewertet werden. Das wird u.a. für die Korrektur der Daten auf den momentanen Druck und die Temperatur des Gases benötigt. Die Driftgeschwindigkeit wurde bei Feldstärken von 100 - 900 V/cm in Schritten von 100 V/cm gemessen. Die Spurendriftkammer des ALICE-Experimentes soll bei einer Feldstärke von 400 V/cm arbeiten. Die dafür gemessenen Ergebnisse sind: Temperaturabhängigkeit: Bei der erreichbaren Genauigkeit läßt sich über die Abhängigkeit der Driftgeschwindigkeit ve􀀀 von der Teilchenzahldichte N des Gases ve􀀀 = f(E/N) = f(E*T/P) keine weitere Temperaturabhängigkeit feststellen. Die relative Änderung der Driftgeschwindigkeit mit der Temperatur beträgt: Dv400 e􀀀 DT = 3.1 +- 0.23‰ /K CO2-Abhängigkeit: Die relative Änderung der Driftgeschwindigkeit mit dem CO2-Gehalt bei einer CO2- Konzentration um die 10% beträgt: Dv400 e􀀀;CO2 = -7.69 +- 0.39 Eine Erhöhung des CO2-Gehaltes um 1‰ (10.0% -> 10.1 %) führt also zu einer Herabsetzung der Driftgeschwindigkeit um ca. 7.7‰. N2-Abhängigkeit: Die relative Änderung der Driftgeschwindigkeit bei Stickstoffzugabe beträgt Dv400 e􀀀;N2 = - 1.14 +- 0.08 Eine Zugabe von 1‰ N2 zur Driftgasmischung führt damit zu einer Herabsetzung der Driftgeschwindigkeit um ca. 1.1‰ .
Diese Arbeit entstand im Rahmen des Schwerionenexperiments NA49 am CERN. Auf der Suche nach einem neuen Zustand von Kernmaterie, dem Quark-Gluon-Plasma, werden dort im SPS (Super-Proton-Syncrhotron Bleiionen auf eine Energie von 158 GeV pro Nukleon beschleunigt und dann auf eine dünne, im Laborsystem ruhende, Bleifolie (Target) gelenkt. Ziel ist es, in zentralen Stößen zweier Bleikerne ein ausgedehntes Volumen hochkomprimierter und heißer stark wechselwirkender Materie zu erzeugen. Kernmaterie im Grundzustand besitzt eine Dichte von rho o ~ 0,14 Nukleonen pro Kubikfermi. Damit ergibt sich mit der Masse der Nukleonen von etwa 939 MeV/c exp 2 eine Energiedichte im Grundzustand von 130 MeV/fm exp 3. Theoretische Überlegungen im Rahmen der Quantenchromodynamik (QCD, die Eichtheorie der starken Wechselwirkung) sagen voraus, daß sich bei einer Energiedichte von etwa 2-3 GeV/fm exp3 und einer Packungsdichte der hadronischen Materie von 10-15 rho 0 die normalerweise in den Hadronen eingeschlossenen Quarks aus ihren Bindungen lösen. Aufgrund dieses als deconfinement bezeichneten Vorgangs könnte ein Plasma aus freien Quarks und Gluonen entstehen. Die letzteren sind die Eichbosonen der starken Wechselwirkung. Ein solcher Zustand hat einige Mikrosekunden nach dem Urknall exisitiert und wird heute im Innern von Neutronensternen vermutet. Die Lebensdauer dieses hochkomprimierten und heißen Zustands während einer Schwerionenkollision ist mit T * 10 exp -23zu kurz, um direkt beobachtet werden zu können. Daher versucht man, aus den hadronischen Reaktionsprodukten Rückschlüsse auf diesen Zustand zu ziehen. Wichtige Meßgrößen sind die Rapidität y und der Transversalimpuls pT der Teilchen nach der Reaktion. Die Rapidität ist ein Maß für die longitudinale Geschwindigkeit der Teilchen entlang der Strahlrichtung. Aus der Rapiditätsverteilung nach dem Stoß kann man bestimmen, wie stark die Projektilnukleonen abgebremst wurden und wieviel Energie somit in der Reaktionszone deponiert wurde. Ein Großteil dieser Energie wird zur Produktion von Hadronen benutzt. Die Transversalimpulsverteilung dieser Teilchen ähnelt der einer thermischen Verteilung. Damit kann im Rahmen von thermodynamischen Modellen der Reaktionszone (Feuerball) eine Temperatur zugeschrieben werden. Durch Messung von Zwei-Pion-Korrelationen kann auf die Größe des Reaktionsvolumens zum Zeitpunkt der Entkopplung der Hadronen von der Reaktion geschlossen werden. Sowohl die Multiplizität der Hadronen als auch ihre "chemische" Zusammensetzung (z.B. Pion, Kaon oder Lambda) liefern wichtige Randbedingungen für Modellvorstellungen über die Dynamik einer Schwerionenkollision. Dazu ist es notwendig, nicht nur die Anzahl der Hadronen pro Ereignis zu messen, sondern auch diese Teilchen zu identifizieren.
S.a. Englische Fassung: Economics of Gift - Positivity of Justice: The Mutual Paranoia of Jacques Derrida and Niklas Luhmann. Theory, Culture and Society 18, 2001, 29-47. Italienische Fassung: Economia del dono, positività della giustizia: la reciproca paranoia di Jacques Derrida e Niklas Luhmann. Sociologia e politiche sociali 6, 2003, 113-130. Portugiesische Fassung: Economia da dádiva ? posividade da rustica; ?assombracao?? mutua entre sistema e différance. In: Gunther Teubner, Direito, Sistema, Policontexturalidade, Editora Unimep, Piracicaba Sao Paolo, Brasil 2005, 55-78.
S.a. Deutsche Fassung: Ökonomie der Gabe - Positivität der Gerechtigkeit: Gegenseitige Heimsuchungen von System und différance. In: Albrecht Koschorke und Cornelia Vismann (Hg.) System - Macht - Kultur: Probleme der Systemtheorie. Akademie, Berlin 1999, 199-212. Auch auf unserem Server vorhanden. * Italienische Fassung: Economia del dono, positività della giustizia: la reciproca paranoia di Jacques Derrida e Niklas Luhmann. Sociologia e politiche sociali 6, 2003, 113-130. Portugiesische Fassung: Economia da dádiva ? posividade da rustica; ?assombracao?? mutua entre sistema e différance. In: Gunther Teubner, Direito, Sistema, Policontexturalidade, Editora Unimep, Piracicaba Sao Paolo, Brasil 2005, 55-78.
Plus de la moitié des Européens de l’U.E. parlent une langue romane comme langue maternelle. Parmi les autres Européens, l’apprentissage de langues romanes comme langue étrangère est très fréquent, il n’est dépassé que par l’anglais: Une «Romanophonie» pourrait s’appuyer donc sur une base large, tandis que ses valeurs intercompréhensives ne sont pas encore suffisamment mises à la disposition d’un publique européen. Au contraire: les nations créent de plus en plus des barrières entre les langues romanes en institutionnalisant les différences et non pas ce qu’elles ont en commun. En Allemagne où l’on trouve encore la philologie romane (Romanische Philologie) comme unité d’études on peut observer en même temps une tendance vers une spécialisation en études unilingues (Einzelphilologien). Un tel séparatisme linguistique à l’intérieur d’une seule famille renonce aux avantages intercommunicatifs et intercompréhensifs offerts par les langues romanes. Le phénomène de l’intercompréhension est largement connu, pas seulement parmi les romanistes. C’est le résultat d’une tradition de l’écrit et d’un héritage culturel - une partie importante de l’unité intellectuelle du continent européen - qui rend les langues romanes si accessibles. ...
Um die Privatsphäre der Kinder und deren Eltern zu schützen, wurden die Fotos der Kinder aus dieser PDF-Datei entfernt. Interessierte Eltern oder Fachleute können die vollständige Arbeit als PDF-Datei (11 MB) zum Download bei http://www.leona-ev.de/piper/ oder chrispiper@freenet.de anfordern. Chromosomenstörungen gehören mit einer Häufigkeit von 1,8/1000 Neugeborene zu den häufigeren angeborenen Störungen. Die Mehrzahl der betroffenen Kinder stirbt bereits intrauterin in der Frühschwangerschaft, weil schon Nidation bzw. die frühe Embryonalentwicklung durch die Chromosomenstörung verhindert werden. Etwa 50% aller Spontanaborte sind durch eine Chromosomenstörung verursacht. Einige Chromosomenstörungen wie z.B. komplette Trisomie 14 oder 16 führen immer zu einem Abort, so daß keine die normale Schwangerschaft überlebenden Patienten bekannt sind. Bei den Trisomien 13 und 18 enden 95% der Schwangerschaften mit einem Abort, bei der häufigeren Trisomie 21 sterben 80% der Patienten intrauterin. Von den lebendgeborenen Kindern mit Chromosomenaberrationen sterben wiederum viele schon im ersten Lebensjahr, zumeist aufgrund schwerer Fehlbildungen, insbesondere Herzfehlern und Nierenfehlbildungen. Während der Phänotyp der häufigeren Chromosomenstörungen gut bekannt ist, gibt es bis auf die Trisomie 21 nur wenige Untersuchungen zu ihrem Verlauf. Systematische Daten zur psychomotorischen Entwicklung der Patienten, zu Komplikationen, zu möglichen Therapien sowie zur Effektivität der Therapien fehlen völlig. So wird auch heute noch in vielen Arztbriefen davon ausgegangen, daß Kinder mit Trisomie 13 oder 18 innerhalb der ersten Lebensmonate versterben und deshalb werden Therapien - wenn überhaupt - nur verzögert oder partiell eingeleitet. Darüber hinaus wird den Eltern durch die Prognose eines schnellen und frühen Todes ein Verlauf suggeriert, der im Einzelfall eben nicht eintreten muß. Die Beziehung zum Patienten, die Erwartungen an den Patienten sowie der Umgang mit dem Patienten, die gesamte Lebensplanung einer Familie und viele Dinge mehr werden dadurch in eine nicht gerechtfertigte Richtung gelenkt. Bei einigen Patienten führte falsche Voraussage eines „baldigen frühen Todes“ soweit, daß die Eltern und die Umgebung ständig darauf wartete, daß der Patient stirbt und die Diagnose von Eltern und Ärzten bezweifelt wurde als das Kind die ersten Lebensjahre überlebte. Mehrfach wurden deshalb Chromosomenanalysen wiederholt, um die Diagnose zu überprüfen. Gerade in unserer Zeit, in der die Intensivmedizin und die operativen Techniken auch Patienten mit komplexen Fehlbildungen ein Überleben ermöglichen, gibt es deshalb immer mehr Patienten mit Chromosomenstörungen, die ein höheres Lebensalter erreichen. Daraus folgt unmittelbar, daß mehr Daten über ältere Patienten mit Chromosomenstörungen gewonnen werden müssen, um bessere und individuellere Therapien zu entwickeln.
Immer mehr Hersteller bringen kleine mobile Endgeräte (PDAs1) auf den Markt, die via WLAN2 (IEEE 802.11), Bluetooth oder UMTS3 drahtlos Kontakt mit der Außenwelt aufnehmen können. Dabei werden neben zunehmend höheren Übertragungsraten auch große Fortschritte in der Miniaturisierung erzielt. Viele PDAs besitzen bereits eingebaute Funknetzwerk-Karten, bei vielen läßt sich eine solche Karte einfach zusätzlich in das Gerät einstecken. Durch die steigende Rechenleistung der Geräte und die gleichzeitig steigenden Übertragungsraten der Funkverbindungen entstehen diverse neue Anwendungsmöglichkeiten, die allerdings noch wenig ausgenutzt werden. Es überwiegen die Standardaufgaben der PDAs, wie die Termin und die Adressenverwaltung. Ein eventuell vorhandener Zugang zu Netzwerken wird meist ebenfalls nur für Standardanwendungen verwendet, wie z.B. die Synchronisation von Daten mit einem Server, der Zugang zum World Wide Web oder zum Versenden von e-Mails. Der herkömmliche Zugang zu Netzwerken ist meist ortsgebunden. Im sogenannten Infrastruktur-Modus ist man auf eine Basisstation (Access-Point) angewiesen. Bewegt man sich in Bereichen, in denen kein solcher Access-Point zur Verfügung steht, kann eine Netzwerkverbindung nicht hergestellt werden. Die Mobilität des Benutzers ist auf die Funkreichweite seines Geräts zu dieser Basisstation beschränkt. Die Bezeichnung „mobil“ trifft also nur auf das Endgerät, nicht auf die Basisstation zu. Genutzt werden üblicherweise die gleichen Dienste wie in einem kabelgebundenem Netz, nämlich Server des Intra-, bzw. Internets. Die eigenständige Vernetzung mobiler Geräte untereinander, der sogenannte Ad-hoc-Modus, eröffnet neuartige Anwendungsgebiete. Ursprünglich dafür gedacht, zwei Stationen schnell und einfach über Funk miteinander zu verbinden, können durch eine Erweiterung beliebig viele Stationen zu einem spontanen und mobilen Netzwerk zusammengefaßt werden (mobiles Ad-hoc Netzwerk, MANET). Eine zentral verwaltete Infrastruktur entfällt dabei vollständig. Die Aufgaben des Routings muß jede einzelne der beteiligten Stationen übernehmen. Auf diese Weise erhöht sich die Funkreichweite aller beteiligten Stationen, da nicht ein zentraler Access-Point, sondern jeder beliebige Teilnehmer in Reichweite den Zugriff auf das Netzwerk ermöglicht. Es muß dabei allerdings davon ausgegangen werden, daß sich die Stationen in einem solchen Netz ständig bewegen, das Netz verlassen oder neu hinzukommen können. Somit verändert sich andauernd die Netzwerktopologie und ein kontinuierliches und selbstständiges Neuorganisieren des Netzes wird notwendig. Man spricht daher von selbstorganisierenden mobilen Netzen. Der Informationsfluß in Ad-hoc Netzen ist üblicherweise ein anderer als in Festnetzen. Es entsteht eine eher interessensbezogene Kommunikation, weniger eine, die auf dem Wissen von bekannten Endpunkten im Netzwerk basiert. In Ad-hoc Netzwerken können Endpunkte und Adressen aufgrund der sich permanent ändernden Nutzerzusammensetzung naturgemäß nicht bekannt sein. Stattdessen gibt jeder Nutzer Informationen über seine Interessen und seine Angebote im Netzwerk bekannt. Findet sich ein zu diesem Interessensprofil passendes Angebot, so kommt eine Verbindung zustande. Die Flexibilität der PDAs, ihre Mobilität und ihre ständig steigende Leistung lassen die Entwicklung von mobilen Ad-hoc-Anwendungen sinnvoll erscheinen. MANET Netzwerke sind in ihrer Auslegung flexibel und schnell, genau so, wie es die modernen PDAs sind. Es eröffnet sich durch durch beides eine große Zahl neuer und innovativer Anwendungsmöglichkeiten. Eine davon, das so genannte E-Learning, soll im Folgenden näher betrachtet werden. E-Learning ist ein Beispiel für eine Anwendung in Ad-hoc Netzen, die besonders geeignet erscheint, die Beweglichkeit ihrer Anwender in vielerlei Hinsicht zu unterstützen. Durch die Eigenschaft, geeignete Kollaborationspartner und Informationen schnell und gezielt im Netzwerk finden zu können, wird ein spontaner Wissensaustausch über die bisher bestehende Grenzen hinaus möglich. Es werden im Rahmen dieser Diplomarbeit Mechanismen behandelt, die dem Anwender die Nutzung von kollaborativen Anwendungen wie dem E-Learning ermöglichen und ihn bei dessen Nutzung unterstützen sollen.
Globalized justice - fragmented justice. Human rights violations by "private" transnational actors
(2005)
Plenarvortrag Weltkongress der Rechtsphilosophie und Sozialphilosophie, 24.-29. Mai, Granada 2005. S.a. die deutsche Fassung: "Die anonyme Matrix: Menschenrechtsverletzungen durch "private" transnationale Akteure". Spanische Fassung: Sociedad global, justicia fragmentada: sobre la violatión de los derechos humanos por actores transnacionales 'privados'. In: Manuel Escamilla and Modesto Saavedra (eds.), Law and Justice in a global society, International Association for philosophy of law and social philosophy, Granada 2005, S. 529-546.
Die Gitterbasenreduktion hat in der algorithmischen Zahlentheorie und der Kryptologie bedeutende und praktisch relevante Anwendungen [Joux und Stern, 1998; Nguyen und Stern, 2000; Nguyen, 2001]. Ein wesentlicher Beitrag auf dem Gebiet der Gitter-Reduktionsalgorithmen ist der LLL-Algorithmus [Lenstra, Lenstra und Lov´asz, 1982] und auch die Beta-Reduktion (BKZ-Reduktion) von Gitterbasen [Schnorr, 1987, 1988, 1994] ist von großer Bedeutung. Bei Implementierungen dieser Algorithmen auf modernen Rechnerarchitekturen erfolgen viele Berechnungen aus Gründen der schnelleren Verarbeitungsgeschwindigkeit in Gleitpunktzahlen-Arithmetik. Aufgrund inhärenter Rundungsfehler kommt es dabei zu numerischen Instabilitäten. Vor [Koy und Schnorr, 2001b] gab es keine erfolgreichen Ansätze die bei der Gitterbasenreduktion auftretenden Rundungsfehler so zu kontrollieren, dass auch Gitterbasen in der Dimension >= 400 reduziert werden können. Diese Diplomarbeit beschäftigt sich mit den praktischen Aspekten der Gitterbasenreduktion in Segmenten. Dabei handelt es sich um die erstmalige Implementierung und experimentelle Evaluierung der folgenden beiden Verfahren: ....
Der Begriff Eurocomprehension steht für Europäische Interkomprehension in den drei großen Sprachengruppen Europas, der romanischen, slawischen und germanischen. Es geht der Eurocomprehension darum, unter EU-konformen sprachpolitischen Zielsetzungen Mehrsprachigkeit über den Einstieg in rezeptive Kompetenzen modularisiert zu erreichen. Dabei liefert die linguistische Interkomprehensionsforschung die interlingualen Transferbasen zur kognitiven Nutzung von Verwandtschaftsbeziehungen in Sprachgruppen, die eine Mehrsprachigkeitsdidaktik umsetzt. ...
Für Romanisten ist Interkomprehension seit der Begründung ihrer Disziplin ein Anliegen, für romanischsprachige Menschen ist sie meist ein persönliches Erlebnis der partiellen Entdeckung, vor 1500 Jahren war sie alltägliche Realität. Es geht um die Fähigkeit, in einer Gruppe von Sprachen, die einen gemeinsamen Ursprung haben, kommunizieren zu können.
Läßt man die Problematik der bei dieser Aussage verwendeten Ausdrücke außer Betracht und schränkt den Blickwinkel auf die Gruppe der romanischen Sprachen ein, so lassen sich eine Reihe von Aussagen über Interkomprehension machen.
Daß zwischen dem sechsten und achten Jahrhundert, also während der protoromanischen Phase, Interkomprehension zwischen entfernten Gegenden des niedergegangen Imperium Romanum möglich war, ist unstrittig, freilich gab es keine außersprachlichen Gründe, die das Faktum Interkomprehension in den Vordergrund hätten rücken können. Die einzig übriggebliebene Zentralmacht Kirche benutzte ihr eigenes Latein. ...
"Eurocomprehension" is the term used to describe European intercomprehension in Europe’s three major language families, the Romance, the Slavic and the Germanic. The aim of eurocomprehension is to achieve multilingualism conforming to EU language policy goals through the entry-point of receptive competence in a modular structure. Linguistic intercomprehension research forms the transfer bases for the cognitive use of relations between the language groups which didactics of multilingualism implement. ...
Der sprachfamilienbezogene Erwerb einer L3 bis Lx hat durch die jüngeren sprachpolitischen Forderungen der Europäischen Kommission 1997 entscheidenden Auftrieb erhalten. Im Livre Blanc sur l´éducation et la formation von 1995 bilanziert die Europäische Kommission das Ergebnis der fremdsprachlichen Bemühungen der großen Flächenstaaten der Union als eher kümmerlich und fordert eine Wende. Künftig soll eine Europäische Mehrsprachigkeit drei Perspektiven aufweisen: eine differenzierte Betrachtung von Kompetenzen (rezeptive Mehrsprachigkeit), die Ermöglichung des gezielten Erwerbs von Teilkompetenzen mit modularen Aufbaumöglichkeiten (fachsprachlicher approach zur rezeptiven Lesekompetenz) und das Nutzen der Verwandtschaftsbeziehungen zwischen Sprachen (u.a. romanische Interkomprehensionsforschung). Diese drei Perspektiven werden in dem dreigliedrigen Projekt zur "Eurocomprehension" der Universität Frankfurt zusammengefaßt. Der Frankfurter Beitrag bezieht sich auf die Gruppe der romanischen Sprachen. ...
Das Neldophon gehört mittlerweile zum internationalen Wortschatz Europas. Neldophonieren ist heute alltägliche Praxis. Die Globalisierung des ausgehenden zweiten Jahrtausends setzt die Entwicklung der Neldophonie voraus, um idealtypisch in naher Zukunft von jedem Punkt der Erde aus mit jedem beliebigen anderen Punkt in neldophonischer Verbindung zu sein. Eurosemantische Gemeinsamkeiten des Neldophonierens und die außersprachliche Partizipiation an der entsprechenden Technologie erleichterten die Akzeptanz des Terminus in den romanischen (und anderen) Sprachen Europas und der Welt trotz des Unikalmorphems Neldo-(vergleichbar mit Him- und Brom- in Him-, bzw. Brombeere) in Verbindung mit dem ansonsten global in verschiedenen Graphien verbreiteten Restmorphem -phon. Wörter haben ihre Geschichte. Der Ausdruck läßt sich auf seinen etymologischen Entstehungsort, den Congrés Europeu sobre Planificació Lingüística (Barcelona 9.-10. November 1995) zurückführen, andem auch der Gründer der FFM teilnahm. Offensichtlich wurde der Terminus hier in internationaler Umgebung erstmalig geprägt und sogleich panromanisch umgesetzt. Die barceloniner Gastgeber sprachen von neldòfon, während hingegen die wenigen Hispanophonen neldófono bevorzugten. Das Verbum neldofonar ist in der Zwischenzeit auch im Portugiesischen belegt, die Académie française wird sich kaum einer Äußerung enthalten können, ob neldophoner oder neldofoner (da offensichtlich im katalanischen Sprachbereich entstanden) die normgerechte Graphie repräsentiere, während Italien den europäischen Neologismus seit dem Herbst 1995 bereits kennt (chiamami più tardi al neldefono) und - zu Recht? - das etymologische ius primi loci beansprucht. In Rumänien erhielt das Verb eine systemimanente Stammerweiterung (Petre neldofoneazã mult) seit 1996. Nach zuverlässigen Quellen (Jernudd 1995) trat der Terminus Ende 1995 in seiner englischen Variante in Honkong in Kontakt mit dem Kantonesischen. Sein Überleben scheint jedoch hier (nach 1997) insbesondere wegen der phonologischen Problematik des liquiden Auslauts der Silbe nel- und diverser noch zu erwartender sprachpolitischer Konflikte nicht gesichert. Da die europäischen Neldophone in USA noch nicht funktionieren, ist eine gewisse Skepsis für den terminologischen Siegeszug der Neldophonie im Amerikanischen Englisch nicht unangebracht. ...
Durch die stetig zunehmende Implementierung von Informationssystemen in verschiedene Gesellschaftsbereiche gibt es in der Menschheitsgeschichte eine bisher noch nie dagewesene Entwicklung: ‚Kognitive Last’ kann dem Menschen durch technische ‚Denkzeuge’ sehr effektiv und effizient abgenommen werden. Dadurch können „typisch menschliche Bereiche wie Kreativität, Solidarität, Innovationsfähigkeit, Mitmenschlichkeit, Kommunikationsfähigkeit“ beim Einzelnen gefördert und entwickelt werden, wie es bisher nur bei ganz wenigen Menschen in einer Gesellschaft möglich war. „D. h. das Gehirn gewinnt - zumindest im Prinzip - völlig neue Freiheiten, nachdem es die kognitive Last abgeworfen und an die Computer übergeben hat. Diese Freiheit gilt es - insbesondere im Bildungswesen - zu nutzen!" Doch wird in der heutigen deutschen Schule und Hochschule nicht ‚Homo sapiens informaticus’ qualifiziert, „sondern den auf Abwicklung aller kognitiven Tätigkeiten im Gehirn trainierten Homo sapiens sapiens“. Früher oder später sieht dieser viele der mühsam erlernten kognitiven Leistungen durch technische Produkte in der realen Welt erfüllt (z.B. durch Arithmetik-Software), an die er sich nach seiner Ausbildung durch Fortbildung oder ‚learning by doing’ anzupassen versucht. In der Informationsgesellschaft wird der kompetente Umgang mit Neuen Medien als Schlüsselqualifikation gesehen, die es in jeglicher Ausbildung zu erwerben gilt. Um diese zu entwickeln reicht es jedoch nicht aus, Schulen mit entsprechender Technik auszustatten. Medienkompetente Schüler setzen den medienkompetenten Lehrer voraus. Aus diesem Grund wird einer entsprechenden Lehrerbildung eine Schlüsselrolle zur frühen und breiten Vermittlung von Medienkompetenz in der Gesellschaft zugeschrieben. Dazu müssen wiederum die Ausbilder der Lehrer selbst medienkompetent und die Bildungseinrichtungen mit Neuen Medien ausgestattet sein. Mit vorliegender Arbeit soll die von verschiedenen Bereichen der Gesellschaft gestellte Forderung, Neue Medien in der Bildung einzusetzen, nachvollzogen und auf ihre tatsächliche Implementierung in der derzeitigen Lehrerbildung untersucht werden. Dazu werden exemplarisch die Ergebnisse der Befragung einer kleinen Gruppe kaufmännischer Referendare herangezogen. Im Rahmen dieser Arbeit wird darauf verzichtet, eine ausführliche Darstellung unterschiedlicher Formen des multimedialen und telekommunikativen Lernens (Teleteaching, Lernsoftware etc.) vorzunehmen. Auf lernformenspezifische Aspekte wird, falls notwendig, an entsprechender Stelle eingegangen. Wirkungen, die Neue Medien auf Schulentwicklung, Bildungsinstitutionen als Kompetenzzentren und einhergehende Aspekte der Personalentwicklung haben, werden nicht systematisch untersucht.
Rezeptive Mehrsprachigkeit ist eine der jüngsten Forderungen der EU-Kommission zum Erreichen einer realistischen Mehrsprachigkeit in Europa. Die maximalistischen Forderungen nach Perfektion in allen sprachlichen Kompetenzen haben sich in den nationalen Unterrichtswesen als illusionär erwiesen, da diese nirgendwo von statistisch nachvollziehbarem Erfolg gekrönt sind. Die sprachliche Diversität im multilingualen Europa findet sich nicht in der Realität der Bildungssysteme wieder. Zwar verfügen heute europaweit 26 % der Europäer über eine zweite und 8% über eine dritte Fremdsprache, in den einzelnen Ländern sieht es jedoch oft desolat aus. Während in den kleineren Unionsländern kaum jemand als nur monolingual gilt (Luxemburg 2%) ist die Krankheit der Einsprachigkeit in den großen EU-Staaten seuchenhaft verbreitet, etwa Großbritannien mit 66%. Dies hat in den neunziger Jahren in der Kommission zu den Postulaten geführt, die sich die Forschergruppe EuroCom als Programm gesetzt hat, nämlich Mehrsprachigkeit über den Einstieg in rezeptive Kompetenzen modularisiert und kognitiv über Transferbasen innerhalb von Sprachfamilien zu erreichen. EuroCom steht dabei als Kürzel für Eurocomprehension, ein Akronym für Europäische Interkomprehension in den drei großen Sprachengruppen Europas, der romanischen, slawischen und germanischen. Die Beschränkung auf rezeptive Kompetenzen ist dabei nur ein methodisches Ausgangsprinzip, das es ermöglicht, Mehrsprachigkeit besonders schnell über das Leseverständnis zu erreichen und modularisiert auf Hörverständnis und aktive Sprechkompetenz sukzessiv auszuweiten. Die Methode EuroCom arbeitet über die Aktivierung intralingualen Wissens mit linguistischem Transfermaterial in nahverwandten Sprachen, das als kognitives Potential den Erschließungsprozess optimiert und in kürzester Zeit ein Lese- und Hörverstehen in einer ganzen Sprachenfamilie erreichbar macht. ...
Le concept d’eurocompréhension signifie intercompréhension dans les trois grands groupes linguistiques européens, à savoir les langues romanes, slaves et germaniques. Il s’agit, en respectant les objectifs1 de la politique linguistique de l’Union Européenne, de parvenir de façon modulaire au plurilinguisme par le biais de compétences réceptives. Dans ce cadre, les recherches linguistiques effectuées sur l’intercompréhension fournissent les bases de transfert interlangues pour l’exploitation cognitive de la parenté entre les langues des groupes différents. ...
In den Anwendungsbereichen der Mixed Reality (MR) werden die reale und die virtuelle Welt kombiniert, so dass ein Eindruck der Koexistenz beider Welten entsteht. Meist wird dabei die reale Umgebung durch virtuelle Objekte angereichert, die dem Anwender zusätzliche Informationen bieten sollen. Um die virtuellen Objekte richtig zu positionieren, muss die reale Umgebung erkannt werden. Diese Erkennung der realen Umgebung wird meist durch Bestimmung und Verfolgung von Orientierung und Positionierung der realen Objekte realisiert, was als Tracking bezeichnet wird und einen der wichtigsten Bestandteile für MR-Anwendung darstellt. Ohne die exakte Ausrichtung von realen und virtuellen Objekten, geht die Illusion verloren, dass die virtuellen Objekte Teil der realen Umgebung sind und mit ihr verschmelzen. Markerkombination Das markerbasierte Tracking ist ein Verfahren, das die Bestimmung der Positionierung von realen Objekten durch zusätzliche Markierungen in der realen Umgebung ermöglicht. Diese Markierungen können besonders gut durch Bildanalyseverfahren extrahiert werden und bieten anhand ihrer speziellen Form Positionierungsinformationen. Der Einsatz dieser Trackingtechnologie ist dabei denkbar einfache und kostengünstig. Ein breiter Anwendungsbereich ist durch den kostengünstigen Einsatz dieser Technologien gegeben, allerdings ist das Erstellen von MR-Anwendungen fast ausschließlich MR-Spezialisten vorbehalten, die über Programmierfertigkeiten und spezielle Kenntnisse aus dem MR-Bereich besitzen. Diese Arbeit beschreibt die Entwicklung und Umsetzung der Konzepte, die einem Personenkreis, der lediglich über geringe Kenntnisse von MR-Technologien und deren Anwendung verfügt, den kostengünstigen und einfachen Einsatz von markerbasierten Trackingtechnologien ermöglicht. Die im Rahmen der Arbeit durchgeführte Analyse verweist auf die problematischen Anwendungsfälle des markerbasierten Trackings, die durch die Verdeckung von Markern zustande kommen, in der Beschränkung der Markeranzahl begründet sind, oder durch die Schwankung der Trackingangaben entstehen. Diese Problembereiche sind bei der Entwicklung berücksichtigt worden und können mit Hilfe der entwickelten Konzepte vom Autor bewältigt werden. Das Konzept der Markerkategorien ermöglicht dabei den Einsatz von angepassten Filterungstechniken. Die redundante Markerkombination behebt das Verdeckungsproblem und eliminiert Schwankungen durch das Kombinieren von mehreren Trackinginformationen. Die Gütefunktion ermöglicht die Bewertung von Trackinginformationen und wird zur Gewichtung der Trackingangaben innerhalb einer Markerkombination genutzt. Das Konzept der Markertupel ermöglicht eine Wiederverwendung von Markern, durch den Ansatz der Bereichsunterteilung. Die Konzepte sind in der AMIRE-Umgebung vollständig implementiert und getestet worden. Zum Abschluss ist rückblickend eine kritische Betrachtung der Arbeit, in punkto Vorgehensweise und erreichter Ergebnisse durchgeführt worden.
Wissenschafts- und Kulturinstitutionen, Bibliotheken und Archive haben heute nicht nur neue Medien zu erwerben, sondern sie stehen auch vor der Aufgabe, das bereits vorhandene Kulturgut auf Dauer zu erhalten. Die Beseitigung von Schäden durch Papierzerfall ist hier nur ein Beispiel. Bei der Rettung historischen Kulturguts ist die Deutsche Forschungsgemeinschaft -neben anderen Institutionen - ein verlässlicher Partner. Ebenso wie beispielsweise die VW-Stiftung unterstützt sie zahlreiche Restaurierungs-, Sicherheitsverfilmungs- und Digitalisierungsvorhaben in den Bereichen Kultur und Wissenschaft. Ich möchte nunmehr versuchen, die Bedeutung der sog. Bestandserhaltung für unser kulturelles Gedächtnis durch sieben kurze Bemerkungen schlaglichtartig zu bestimmen: Diese Bemerkungen tragen die Überschriften: 1) Bibliotheken und Wissenschaft, 2) Bestandserhaltung hat heute Konjunktur, 3) Tontafeln, saure Bücher, Tonbänder und digitale Datenträger, 4) Einige praktische Aspekte des Bestandsschutzes beim traditionellen Buchgut, 5) Sicherheitsverfilmung und Digitalisierung in Archiven und Bibliotheken, 6) Bestandserhaltung, Marketing, Öffentlichkeitsarbeit und 7) Bestandserhaltung in der Wissenschaftsstadt Frankfurt und die "Aktion Notbuch" der Stadt- und Universitätsbibliothek Frankfurt a. M. Zum Artikel: Stand: Januar 2002
Deutsche Fassung: Expertise als soziale Institution: Die Internalisierung Dritter in den Vertrag. In: Gert Brüggemeier (Hg.) Liber Amicorum Eike Schmidt. Müller, Heidelberg, 2005, 303-334.
Englische Fassung: Societal Constitutionalism: Alternatives to State-centred Constitutional theory? ("Storrs Lectures 2003/04" Yale Law School) In: Christian Joerges, Inge-Johanne Sand und Gunther Teubner (Hg.) Constitutionalism and Transnational Governance. Hart, Oxford 2004, 3-28. Und in: Ius et Lex 2004, S.31-50. Französische Fassung: Constitutionalisme sociétal et globalisation: Alternatives à la théorie constitutionelle centrée sur l'État. Themis 2005 (im Erscheinen) Italienische Fassung: Costituzionalismo societario: alternative alla teoria costituzionale stato-centrica. In: Gunther Teubner, Costituzionalismo societario. Armando, Roma 2005 (im Erscheinen). Spanische Fassung: Globalización y constitucionalismo social: alternativas a la teoría constitucionalista centrada en el Estado". In: Carlos Gómez-Jara Díez (Hg.), Teoría de sistemas y Derecho penal: Fundamentos y posibilidades de aplicación. Granada: Comares, 2005 (im Erscheinen) und in: Cancio Meliá und Bacigalupo Saggese (Hg.) Derecho penal y política transnacional. Barcelona: Atelier, 2005 (in Erscheinen)und in: Gunther Teubner, El Derecho como sistema autopoiético de la sociedad global, herausgegeben von Carlos Gómez-Jara Diez. Bogotá: Universidad Externado de Colombia, 2005 (im Erscheinen) und Lima: ARA Editores, 2005 (im Erscheinen) Polnische Fassung: Konstytucjonalizm spoleczny: Alternatywy dla teorii konstitucyjnej nakierowanej na panstwo. Ius et Lex 3, 2004, S.5-27.
Diese Arbeit hat einen Überblick über das IMS Learning Design und die damit verbundenen Spezifikationen gegeben und aktuelle Bestrebungen einer Adaption untersucht. Das IMS Learning Design bietet die Grundlage für die Gestaltung pädagogischer Frameworks für die Wiederverwendung von einzelnen Aktivitäten bis hin zu ganzen Kursen. Einmal erstellter Content kann auf diese Weise für unterschiedliche Zielgruppen und Lernumgebungen angeboten werden (create once deliver many times). Vgl. Hummel, H. (2004), S. 111. Gleichzeitig kann durch die didaktische Gestaltung von Lehr-/ Lerneinheiten der Mehrwert eines Lernszenarios für die Teilnehmer erhöht werden, da eine teilnehmerfokussierte Wissensübermittlung möglich gemacht wird. Dies beruht jedoch prinzipiell auf den pädagogischen Fähigkeiten des Autors eines Kurses. Im Forschungsbereich Geisteswissenschaften wird zu diesem Thema noch einiges zu untersuchen sein, was die Gestaltung pädagogischer Lehr-/ Lerneinheiten betrifft, da e-Learning-Kurse aus pädagogischer Sicht nicht mit Präsenzveranstaltungen gleichzusetzen sind. Die Verwendung von Standards im Bereich e-Learning ist sowohl für Kunden als auch für die Anbieter von Learning Management Systemen profitabel. Während Kunden die Möglichkeit bekommen aus einer Vielzahl von Anbietern zu wählen, die Standardschnittstellen anbieten, wächst für Anbieter der Kundenkreis, an den ihre Produkte verkauft werden können. Der Adaptionsprozess und die Forschung bezüglich des IMS LD steckt aber noch in den Anfängen. In diesem Zusammenhang wird eine verstärkte Öffentlichkeitsarbeit notwendig sein, um die Potentiale und das Know How bezüglich dieser Spezifikation zu vermitteln, und so den Adaptionsprozess voranzutreiben. Die Integration des Learning Designs in bestehende Spezifikationspakete wie z.B. SCORM würde die Akzeptanz und die Adaption auf dem Markt für e-Learning-Produkte möglicherweise erhöhen, vernachlässigt jedoch die Auseinandersetzung mit der eigentlichen Spezifikation. Die Integration weiterer Spezifikationen in das Learning Design ist derzeit noch problematisch, da hierfür einerseits rechtliche Grundlagen ungeklärt sind (IMS LIP, PAPI) und anderseits das technische Zusammenspiel der Interpreter noch nicht realisiert wurde. Das IMS LD ist eine große Chance für die Durchsetzung einheitlicher e-Learning- Konzepte. Es bietet einen Ansatz für die standardisierte Gestaltung von e-Learning-Systemen, der bis dato häufig nur durch Customizing (create one deliver once) gelöst werden konnte.
Homo Artificialis - Androiden und Cyborg-Konzepte am Beispiel der Science-Fiction-Serie Star Trek
(2002)
Der Untertitel „Androiden- und Cyborg-Konzepte“ weist bereits darauf hin, dass in dieser Arbeit zwei diametrale Richtungen der maschinellen Entwicklung aufgezeigt werden sollen. Zum einen ist es die Entwicklung des Roboters zum Androiden, also von der Maschine zur Menschenimitation hin, die andere Entwicklung ist die des Menschen zum Cyborg,bei der eine Technisierung des Menschen stattfindet. Diese zwei entgegengesetzten Richtungen,die sich aber auch in Form des Mensch-Maschine-Amalgams in Form des „Homo Artificialis“ überschneiden, gilt es in dieser Arbeit zu beobachten und zu analysieren. Die hierbei verwendete Methodik des ersten Teils richtet ihren Blick zunächst in die Vergangenheit und beobachtet in kurzer Form die Motivationen und die Entwicklung von künstlichem Leben. Anschließend richtet sich der Schwerpunkt auf den gegenwärtigen naturwissenschaftlichen und geisteswissenschaftlichen Forschungsstand der Robotik und der künstlichen Intelligenz. Da es so etwas wie einen menschlichen Androiden bis zum jetzigen Zeitpunkt noch nicht gibt, richtet sich der analytische Blick in dieser Arbeit auf die gegenwärtigen Entwicklungen, die eines Tages möglicherweise zu einer exakten mechanischen Version des organischen Menschen führen werden. Hierbei sollen Fragen der Maschinenintelligenz und des Maschinenbewusstseins untersucht werden: Ist Maschinenintelligenz oder sogar ein Maschinenbewusstsein möglich? Warum gibt es eine Grundangst vor der Mechanisierung und der Vermenschlichung der Technik? Was könnte passieren, wenn Roboter intelligenter würden als wir oder vielleicht Emotionen bekämen? Würden wir diese vielleicht emotional fühlenden Wesen versklaven oder würden wir durch Gesetze daran gehindert werden? Der Versuch, diese ethischen, philosophischen, kognitionswissenschaftlichen und medientheoretischen Fragen interdisziplinär zu diskutieren, schließlich den Blick auf eine mögliche Zukunft auszurichten und anhand einer Utopie diese Fragen zu untersuchen, soll der Schwerpunkt dieser Arbeit sein. Science Fiction beschreibt die Gegenwart als Vergangenheit vom Standpunkt einer möglichen Zukunft aus! Hierbei wird über mögliche Entwürfe spekuliert und von Tendenzen ausgegangen, die sich in der Gegenwart abzeichnen. Dabei werden insbesondere Errungenschaften der Technowissenschaften und deren futuristische Auswirkungen imaginiert und in ökonomische, soziale und kulturelle Zusammenhänge integriert. Insbesondere Star Trek stellt einen Schauplatz dafür dar, wie Identitäten oder Affinitäten einer möglichen Zukunft hinlänglich eines konstruierten Körpers aussehen könnten. Der zweite Teil dieser Arbeit ist den Cyborgs gewidmet. Ausgehend von einer Konstruktion des überaus komplexen Cyborg-Begriffs, wird dieser durch neuere Richtungen der Cyborg-Wissenschaften auch wieder dekonstruiert. Das spezielle Augenmerk wird, neben der Entwicklung durch Raumfahrt, Militär und Medizin, auf die der transhumanistischen und feministischen Anschauungen gerichtet sein, die den Cyborg-Begriff in neue Dimensionen transformieren. Letztendlich soll auch zu dem Thema dieser Mensch- und Maschine-Überkreuzungen die Perspektive der Science Fiction Serie Star Trek aufgezeigt werden.
In der vorliegenden Arbeit wird ein interaktives Beweisprotokoll für das Problem der "überprüfbaren Verschlüsselung" (verifiable encyption) vorgestellt. Mit Hilfe eines Verifiable Encryption Protokolls (VEP) beweist eine Person (der Prover) einer anderen Person (dem Verifier) effizient, daß ein vorher gesendeter Wert alpha die Verschlüsselung eines geheimen Wertes s ist. Den geheimen Wert s muß er dazu nicht offenlegen. Zur Verschlüsselung von s wird ein Public-Key-Verfahren und ein öffentlicher Schlüssel PK benutzt. PK gehört zum Schlüsselpaar einer dritten Partei, die nicht aktiv an der Protokollausführung beteiligt ist und die Rolle eines Notars einnimmt. Dem Verifier steht ein Wert d zur Verfügung, anhand dessen er entscheidet, ob er den Beweis akzeptiert oder verwirft. Akzeptiert der Verifier den Beweis des Provers, so kann er zwar mit an Sicherheit grenzender Wahrscheinlichkeit sagen, daß alpha eine Verschlüsselung von s unter dem öffentlichen Schlüssel PK ist. Er kann s jedoch nicht rekonstruieren, da er nicht im Besitz des zu PK gehörigen geheimen Schlüssels SK ist und der Beweis keine Informationen über s preisgibt.
Das Recht hybrider Netzwerke
(2001)
Englische Fassung: Hybrid Laws: Constitutionalizing Private Governance Networks. In: Robert Kagan and Kenneth Winston (Hg.) Legality and Community: On the Intellectual Legacy of Philip Selznick. Berkeley, Berkeley Public Policy Press 2002, 311-331. Italienische Fassung: Diritti ibridi: la costituzionalizzazione delle reti private di governance. In: Gunther Teubner, Costituzionalismo societario. Armando, Roma 2004 (im Erscheinen).
Plenarvortrag Weltkongress der Rechtsphilosophie und Sozialphilosophie, 24.-29. Mai, Granada 2005. Englische Fassung: Globalized Justice - Fragmented Justice. Human Rights Violations by "Private" Transnational Actors. In: Manuel Escamilla and Modesto Saavedra (eds.), Law and Justice in a global society, International Association for philosophy of law and social philosophy, Granada 2005, S.547-562. Spanische Fassung: Sociedad global, justicia fragmentada: sobre la violatión de los derechos humanos por actores transnacionales 'privados'. In: Manuel Escamilla and Modesto Saavedra (eds.), Law and Justice in a global society, International Association for philosophy of law and social philosophy, Granada 2005, S. 529-546.
Deutsche Fassung: Vertragswelten: Das Recht in der Fragmentierung von private governance regimes. Rechtshistorisches Journal 17, 1998, 234-265. Italienische Fassung: Mondi contrattuali. Discourse rights nel diritto privato. In: Gunther Teubner, Diritto policontesturale: Prospettive giuridiche della pluralizzazione dei mondi sociali. La città del sole, Neapel 1999, 113-142. Portugiesische Fassung: Mundos contratuais: o direito na fragmentacao de regimes de private governance. In: Gunther Teubner, Direito, Sistema, Policontexturalidade, Editora Unimep, Piracicaba Sao Paolo, Brasil 2005, 269-298.
Englische Fassung: Contracting Worlds: Invoking Discourse Rights in Private Governance Regimes (Annual Lecture Edinburgh 1997) Social and Legal Studies 9, 2000, 399-417. Italienische Fassung: Mondi contrattuali. Discourse rights nel diritto privato. In: Gunther Teubner, Diritto policontesturale: Prospettive giuridiche della pluralizzazione dei mondi sociali. La città del sole, Neapel 1999, 113-142. Portugiesische Fassung: Mundos contratuais: o direito na fragmentacao de regimes de private governance. In: Gunther Teubner, Direito, Sistema, Policontexturalidade, Editora Unimep, Piracicaba Sao Paolo, Brasil 2005, 269-298.
Die Deutsche Kolonialgesellschaft (DKG) war mit ihren bis zu 42.000 Mitgliedern der größte und einflußreichste Interessenverband der deutschen Kolonialbewegung. Sie bestand, wenn auch seit 1933 dem Reichskolonialbund eingegliedert, von 1882 bis 1943. Bisher wurde erst ein Teil unserer Sammlung verfilmt und im Detail gesichtet - die wissenschaftliche Erschließung ist Zukunftsmusik. Dank der Unterstützung durch die Deutsche Forschungs- gemeinschaft, die Marga- und Kurt-Möllgaard-Stiftung und die Adolf-Messer-Stiftung ließ sich jedoch inzwischen wenigstens ein solides Fundament legen. Die Stadt- und Universitätsbibliothek Frankfurt am Main wird bemüht sein, ihre wohl einzigartige kulturhistorische Bildsammlung der deutschen Kolonialaktivitäten, der ein hoher wissenschaftlicher Rang zukommen dürfte, in absehbarer Zeit wieder vollständig verfügbar machen zu können.
Die vorliegende Arbeit hat es sich zur Aufgabe gemacht, den für das Verständnis der Philosophie Cassirers zentralen Begriff des Mythos im Hinblick auf sein 1923-1929 erschienenes Hauptwerk, der in drei Bänden vorliegenden "Philosophie der symbolischen Formen", zu untersuchen. Für Cassirer sind Mythen Denkformen. Die Frage ist nun, inwieweit diese Betrachtungsweise des Mythos zum damaligen Zeitpunkt neu war und inwieweit es einer, aus heutiger Sicht, neuen Bewertung von Cassirers Mythostheorie bedarf. Cassirer erhebt den Anspruch, den Mythos aus sich selbst heraus erklären zu wollen. Damit verbunden ist die Kritik an einem zu eng gefaßten Begriff von Rationalität. Schon in der Einleitung zum ersten Band der "Philosophie der symbolischen Formen" stellt Cassirer die These auf, daß das mathematisch-naturwissenschaftliche Sein in seiner idealistischen Fassung und Deutung nicht alle Wirklichkeit erschöpft, "weil in ihm bei weitem nicht alle Wirksamkeit des Geistes und seiner Spontaneität" erfaßt sei. Der Mensch begreift die Welt nicht nur in wissenschaftlichen Termini: Sprache, Wissenschaft, Kunst, aber auch mythische Denkformen bieten uns die Möglichkeit, ein eigenes Ich herauszubilden und unsere Umwelt zu strukturieren. Nach Cassirer erfaßt der Mensch die Welt in symbolischen Formen, von denen die Wissenschaft nur eine unter vielen ist. Aus der traditionell einseitigen Kritik der Vernunft sollte eine umfassende Kritik der Kultur werden.
s.a. Deutsche Fassung: Rechtshistorisches Journal 15, 1996, 255-290 und in: Eric Schwarz (Hg.) La théorie des systèmes: une approche inter- et transdisciplinaire. Bösch, Sion 1996, 101-119. Italienische Fassung: La Bukowina globale: il pluralismo giuridico nella società mondiale. Sociologic a politiche sociali 2, 1999, 49-80. Portugiesische Fassung: Bukowina global sobre a emergência de um pluralismo jurídico transnacional. Impulso: Direito e Globalização 14, 2003. Georgische Fassung: Globaluri bukovina: samarTlebrivi pluralizmi msoflio sazogadoebaSi. Journal of the Institute of State and Law of the Georgian Academy of Sciences 2005 (im Erscheinen)
Englische Fassung: Global Bukowina: Legal Pluralism in the World-Society. in: Gunther Teubner (Hg.) Global Law Without A State. Dartsmouth: London 1996, 3-28. Italienische Fassung: La Bukowina globale: il pluralismo giuridico nella società mondiale. Sociologic a politiche sociali 2, 1999, 49-80. Portugiesische Fassung: Bukowina global sobre a emergência de um pluralismo jurídico transnacional. Impulso: Direito e Globalização 14, 2003. Georgische Fassung: Globaluri bukovina: samarTlebrivi pluralizmi msoflio sazogadoebaSi. Journal of the Institute of State and Law of the Georgian Academy of Sciences 2005 (im Erscheinen)
s.a. Deutsche Fassung: Archiv für Rechts- und Sozialphilosophie. Beiheft 65, 1996, 199-220. Italienische Fassung: Altera pars audiatur: Il diritto nella collisione dei discorsi. In: Gunther Teubner, Diritto policontesturale: Prospettive giuridiche della pluralizzazione dei mondi sociali. La città del sole, Neapel 1999, 27-70. Französische Fassung: Altera pars audiatur: le droit dans la collision des discours. Droit et Société 35, 1997, 99-123. Portugiesische Fassung: Altera pars audiatur: o direito na colisao de disursos. In: J.A. Lindgren Alves, Gunther Teubner, Joaquim Leonel de Rezende Alvim, Dorothe Susanne Rüdiger, Direito e Cidadania na Pos-Modernidade. Editora Unimep, Piracicaba, Brasilia 2002; 93-129.
Englische Fassung: Altera pars audiatur: Law in the Collision of Discourses. In: Richard Rawlings (Hg.) Law, Society and Economy. Oxford University Press, Oxford 1997, 150-176. Italienische Fassung: Altera pars audiatur: Il diritto nella collisione dei discorsi. In: Gunther Teubner, Diritto policontesturale: Prospettive giuridiche della pluralizzazione dei mondi sociali. La città del sole, Neapel 1999, 27-70. Französische Fassung: Altera pars audiatur: le droit dans la collision des discours. Droit et Société 35, 1997, 99-123. Portugiesische Fassung: Altera pars audiatur: o direito na colisao de disursos. In: J.A. Lindgren Alves, Gunther Teubner, Joaquim Leonel de Rezende Alvim, Dorothe Susanne Rüdiger, Direito e Cidadania na Pos-Modernidade. Editora Unimep, Piracicaba, Brasilia 2002; 93-129.
Modalität in der Musik Ruggiero Giovannellis (ca. 1555 - 1625) : zur Geschichte der Tonarten um 1600
(1998)
Die Arbeit untersucht am Beispiel der Kompositionen des Palestrinaschülers Ruggiero Giovannelli die Entwicklung der Kompositionstechnik um 1600 in Italien. Im Zentrum steht die Frage der Tonarten, insbesondere der Entwicklung der Modalität am Übergang von prima zur seconda prattica. Die offenkundige Diskrepanz zwischen der Bedeutung der Modi in der Musik um 1600 und der nachgerückten Bedeutung, die ihnen in wissenschaftlichen Arbeiten zuerkannt wird, ist der Ausgangspunkt, um am Beispiel Ruggiero Giovannellis ein Analysemodell für modal begründete Musik an ausgewählten Werken zu erproben. Zugleich wird eine historische Perspektive modaler Änderungen in einer Zeit beschleunigten musikalischen Wandels aufgezeigt. In detaillierten Analysen wird gezeigt, inwieweit sich in der Musik Giovannellis die satztechnische Tradition der römischen Schule in ihrer modalen Anlage an die Erfordernisse der affektgerichteten Monodie angepasst hat. Auf der Grundlage der theoretischen Arbeiten Bernhard Meiers wird gezeigt, wie Modalität als satztechnische Grundlage in zeitlicher, regionaler und individueller Ausprägung in der Musik um 1600 konkret realisiert wird. Die Arbeit zeigt die Möglichkeiten und Grenzen der Herausforderungen der Neuerungen des Stile moderno an die modalen Grundlagen der Musik, welche sich den neuen satztechnischen Erfordernissen nur begrenzt anpassen konnte. Unter diesem Aspekt einer Entwicklungsgeschichte der Modalität eignet sich Giovannelli als Anschauungsobjekt in vielfältiger Perspektive. Er war Kapellmeister und Sänger an den wichtigsten kirchlichen Institutionen Roms und gleichzeitig in vielfältigem Kontakt mit weltlichen Kreisen. Sein Œuvre umfasst die zentralen weltlichen und geistlichen Gattungen und Stile seiner Zeit: unterschiedlich besetzte Madrigale, Villanellen, Kanzonetten, Motetten und Messen, Mehrchörigkeit findet sich neben generalbassbegleiteter Monodie. Durch seine enge Bindung an Palestrina sowie durch ausgedehnte Aufenthalte in Nord¬italien war er mit allen zeitgenössischen Stilen vertraut. Eine weiterer Aspekt der Arbeit befasst sich mit der Frage, inwieweit der Prozess der Autonomisierung des textlichen Affektgehalts im strengen Satz und die Integration neuer stilistischer Elemente einen Einfluss der römischen Schule auf die Kompositionstechnik in Norditalien (greifbar etwa an der Entwicklung der Mehrchörigkeit in Venedig) gehabt hat. In der Zeit eines beschleunigten historischen Wandels wirkte Ruggiero Giovannelli als behutsamer Erneuerer des Überlieferten. Während er die traditionellen Gattungen Madrigal und Motette auf der Basis der bestehenden musiktheoretischen Maxime weiterentwickelte, brachen andernorts Komponisten radikaler und nachhaltiger mit den bis dahin gültigen Grundlagen der musikalischen Komposition. Ruggiero Giovannelli stand für einen kurzen historischen Augenblick im Rampenlicht dieses Wandlungsprozesses. Er gestaltete die Reform der auf dem Höhepunkt ihrer Entwicklung angekommenen Gattung Madrigal mit, indem er das Moment des Klanglichen und des Linear-melodischen auf der Basis des Kontrapunkts neu interpretierte. Neben der Verwendung eingängiger, von den Zeitgenossen mit dem Prädikat der Leichtigkeit belegten Soggetti war es vor allem das Schaffen formaler Bezüge, die Verwendung von aus populären Gattungen wie Kanzonette und Villanella übernommener Elemente und das Einfügen von durch ihn häufig verwendeter musikalischer Topoi in die unterschiedliche Werke, womit Giovannelli den Geschmack seiner Zeit traf. In seinen Motetten differenziert Giovannelli deutlich nach Besetzung und Aufführungsanlass. Klanglich opulenter, homophon konzipierter Mehrchörigkeit stehen streng kontrapunktisch strukturierte Kompositionen gegenüber. Allen geistlichen Werken liegt jedoch das unmodifizierte Regelwerk der Modi zugrunde, deren Gültigkeit in der auch schon bei Palestrina angewendeten Form von Giovannelli niemals in Frage gestellt wird. Giovannellis Musik ist immer modal konzipiert, wobei sich der Modus traditionell in der Gestaltung der Soggetti und der formalen Anlage einer Komposition ausdrückt. So liegen die Veränderungen gegenüber seinen Vorgängern im Detail. Die Einbindung des modalen Spiels in ein formales Gesamtkonzept ist eines davon, die Verwendung der Modi und der mit ihnen verbundenen Klanglage nach den Anforderungen der Besetzung ein anderes. Die Arbeit umfasst neben dem Textteil ein vollständiges Werkverzeichnis mit Quellenangaben sowie druckfähige Übertragungen der meisten Werke Giovannellis (4 Bände).
Reflexives Recht. Entwicklungsmodelle des Rechts in vergleichender Perspektive (EUI Working Paper 1982/13). Archiv für Rechts- und Sozialphilosophie 68, 1982, 13-59, und in: Werner Maihofer (Hg.), Noi si Mura, Schriftenreihe des Europäischen Hochschulinstituts, Florenz 1986, 290-340. Englische Fassung: Substantive and Reflexive Elements in Modern Law. (EUI Working Paper 1982/14). Law and Society Review 17, 1983, 239-285 und in: Kahei Rokumoto (Hg.) Sociological Theories of Law. Dartmouth, Aldershot 1994, 415-462. Neuabdruck in: Carroll Seron, The Law and Society Canon, Ashgate, Aldershot 2005 (im Erscheinen). Französische Fassung: Eléments 'substantifs' et 'réflexifs' dans le droit moderne. L'Interdit. Revue de Psychanalyse Institutionelle, 1984, 129-132, und Droit et réflexivité: une perspective comparative sur des modèles d'évolution juridique in: Gunther Teubner, Droit et réflexivité. Librairie générale de droit et de jurisprudence, Paris 1994, 3-50. Dänische Fassung: Refleksiv Ret: Udviklingsmodeller i sammenlignende perspektiv. In: Asmund Born, Nils Bredsdorff, Leif Hansen and Finn Hansson (Hg.) Refleksiv Ret. Publication Series of the Institut for Organisation og Arbeidssociologi. Nytfrasamfundsvidenskaberne, Kopenhagen 1988, 21-79.
Die Anfänge der Gittertheorie reichen in das letzte Jahrhundert, wobei die wohl bekanntesten Ergebnisse auf Gauß, Hermite und Minkowski zurückgehen. Die Arbeiten sind jedoch zumeist in der Schreibweise der quadratischen Formen verfaßt, erst in den letzten Jahrzehnten hat sich die von uns verwendete Gitterschreibweise durchgesetzt. Diese ist zum einen geometrisch anschaulicher, zum anderen wurden in den letzten Jahren für diese Schreibweise effiziente Algorithmen entwickelt, so daß Probleme der Gittertheorie mittels Computer gelöst werden können. Ein wichtiges Problem ist, in einem Gitter einen kürzesten nicht verschwindenden Vektor zu bestimmen. Den Grundstein für diese algorithmische Entwicklung legten A.K. Lenstra, H.W. Lenstra Jr. und L. Lovasz mit ihrer Arbeit. In dieser führten sie einen Reduktionsbegriff ein, der durch einen Polynomialzeitalgorithmus erreicht werden kann. Ein weiterer Reduktionsbegriff, die Blockreduktion, geht auf Schnorr zurück. Euchner hat im Rahmen seiner Diplomarbeit effiziente Algorithmen für diese beiden Reduktionsbegriffe auf Workstations implementiert und auch in Dimensionen > 100 erfolgreich getestet. Die Verbesserungen von Schnittechniken des in der Blockreduktion verwendeten Aufzählungsverfahrens und die Einführung einer geschnittenen Aufzählung über die gesamte Gitterbasis hat Hörner in seiner Diplomarbeit beschrieben. Ziel der folgenden Arbeit war es nun, diese bereits auf sequentiellen Computern implementierten Algorithmen zu modifizieren, um auf parallelen Rechnern, speziell Vektorrechnern, einen möglichst hohen Geschwindigkeitsgewinn zu erzielen. Wie in den seriellen Algorithmen werden die Basisvektoren stets in exakter Darstellung mitgeführt, so daß das Endergebnis einer Berechnung nicht durch Rundungsfehler verfälscht wird.
Vorliegender Text ist die leicht erweiterte Fassung von: Harald Hillgärtner: Ein Kramladen des Glücks. Filesharing aus Leidenschaft, in: Harald Hillgärtner, Thomas Küpper (Hg.): Medien und Ästhetik. Festschrift für Burkhardt Lindner, Bielefeld: transcript 2003, S. 332-342. Dieser Aufsatz war Grundlage eines Vortrages bei der Tagung "interfiction X - 2003 filesharer values - Ökonomien des (Aus-)Tauschs Utopien und Realitäten von Kulturproduktion unter Netzbedingungen", aus der Anregungen für diesen Text hervorgingen.
Die vorliegende Arbeit hat es sich zur Aufgabe gemacht, mit der Themenstellung "Netzaktivismus" eine relativ aktuelle Entwicklung aufzugreifen. Als nötig erschien mir hierbei von vornherein, den eigentlichen Kontext des Netzaktivismus, das Internet, einigermaßen genau in den Blick zu bekommen. Ursprünglich war also vorgesehen, zur Einleitung die militärgeschichtliche Herkunft des Internet zu klären und zu bewerten, um dann, anhand der Genese des Internet zu einem Massenmedium unter dem Stichpunkt "Gegenwärtige Nutzungsformen des Internet" der Frage nach der Faszination an diesem neuen Medium nachzugehen. Herausfinden wollte ich dabei, ob die Nutzer sich vornehmlich aktiv oder passiv an dem neuen Medium beteiligen und ob die "Aktivitäten", um die es schließlich in meiner Arbeit geht, überhaupt eine Relevanz für den Großteil der Internetnutzer hat. Dies stellte sich aber als schwieriger heraus, als erwartet. So kann auch in dieser Arbeit wenig darüber gesagt werden, warum denn das Internet in der Gegenwart eine so wichtige Rolle zu spielen scheint. An gegebener Stelle wird noch darauf zurückzukommen sein.
Im Jahr 1993 schlug A. Shamir Protokolle zur Erstellung digitaler Unterschriften vor, die auf rationalen Funktionen kleinen Grades beruhen. D. Coppersmith, J. Stern und S. Vaudenay präsentierten die ersten Angriffe auf die Verfahren. Diese Angriffe können den geheimen Schlüssel nicht ermitteln. Für eine der von Shamir vorgeschlagenen Varianten zeigen wir, wie der geheime Schlüssel ermittelt werden kann. Das zweite Signaturschema von Shamir hängt von der Wahl einer algebraischen Basis ab. Eine besondere Bedeutung haben Basen, deren Elemente polynomiale Terme vom Grad 2 sind. Wir analysieren die Struktur der algebraischen Basen. Für den hervorgehobenen Spezialfall kann eine vollständige Klassifikation durchgeführt werden.
Extrazelluläre Nukleotide fungieren als auto- und parakrine Signalstoffe aus. Im peripheren und zentralen Nervensystem dienen Nukleotide als Neurotransmitter und Neuromodulatoren. Die nahezu ubiquitäre Expression von Purin-Rezeptoren läßt auf umfassende physiologische Funktionen schließen. Nukleotide konnen über ionotrope P2X-Rezeptoren oder metabotrobe P2Y-Rezeptoren ihre Signalwirkung vermitteln. Via P1-Rezeptoren kann Adenosin, ein Baustein bzw. Abbauprodukt von ATP, seine neuromodulatorische und neuroprotektive Wirkung entfalten. Alkalische Phosphatasen, die Ekto-Nukleotid-Pyrophosphatase/Phosphodiesterase Familie (NPP-Familie) und die Ekto-Nukleosid-Triphosphat-Diphosphohydrolase-Familie (E-NTPDasen) können Nukleosiddiphosphate und Nukleosidtriphosphate hydrolysieren. Die E-NTPDasen sind die wahrscheinlichsten Kandidaten für die Moduluation purinerger Signale im Nervensystem. In dieser Arbeit wurde die Klonierung und Charakterisierung der NTPDase3 der Ratte beschrieben. Ein vollständiger cDNA-Klon der NTPDase3 wurde aus einer Rattenhirnbank isoliert, sequenziert und anhand der familientypischen Sequenzmuster (ACRŽs) als E-NTPDase identifiziert. Die Sequenz enthielt einen offenen Leserahmen der für ein 529 Aminosäuren großes Protein kodierte. Sequenzvergleiche zeigten eine große Ähnlichkeit des Proteins mit den NTPDasen 1, 2 und 8, welche plasmamembranständige Ekto-Enzyme sind. Eine plasmamembranständige Lokalisation konnte in NTPDase3-transfizierten CHO-Zellen und in PC12-Zellen mit endogener NTPDase3-Expression nachgewiesen werden. Anhand von Computeranalysen und Sequenzvergleichen wurden Überlegungen zur Sekundär- und Tertiärstruktur angestellt und Ähnlichkeiten zur Zuckerkinase/ Hitzeschock-Protein 70/Aktin-Superfamilie aufgezeigt. Das Protein war entsprechend der in silico-Analyse glykosiliert und ließ sich über das Lektin ConcavalinA anreichern. Messungen an Membranfraktionen heterelog transfizierter CHO-Zellen zeigten die Hydrolyse verschiedener Nukleosidtriphosphate und Nukleosiddiphosphate mit einer Präferenz für Nukleosidtriphosphate. Das Enzym ist primär Kalziumabhängig und a rbeitet optimal im physiologischen pH-Bereich von pH 7,5 bis pH 8,0. Mit einem ATPase:ADPase-Verhältnis von 5:1 liegt die NTPDase3 zwischen der NTPDase1 und der NTPDase2. Seine biochemischen Eigenschaften machen das Ekto-Enzym zu einem Kandidaten für die Modulation purinerger Signale. Nukleotid-vermittelte Signale können via Hydrolyse durch die NTPDase3, möglicherweise in Kombination mit anderen E-NTPDasen, beendet werden. Als Bestandteil einer Enzymkette mit der Ekto-5Ž-Nukleotidase kann das Enzym zur Produktion des neuromodulatorisch und neuroprotektiv wirkenden Adenosins beitragen. Mögliche Rollen bei der Regulation autokriner, parakriner und synaptischer Signale in nichtneuronalen wie neuronalen Geweben wurden für die Gewebe diskutiert, in denen die NTPDase3 per Westernblot nachgewiesen werden konnte. Neben Dünndarm, Prostata, Pancreas, Nebenhoden und Samenleiter wurde ein NTPDase3-Band vor allem im zentralen Nervensystem gefunden. In allen geprüften Hirnteilen (Bulbus olfactorius, Cerebellum, Cortex, Mesencephalon, Diencephalon, Hippocampus, Striatum, Medulla oblongata), dem Rückenmark und der Hypophyse wurde die NTPDase3 im Westernblot detektiert. Das Enzym könnte an der Regulation exokriner Drüsenfunktionen im Pancreas und am epithelialem Ionentransport involviert sein oder auch bei endokrinen Funktionen des Pankreas und der Hypophyse mitwirken. Möglicherweise hat die NTPDase3 funktionelle Bedeutung bei der Termination und Modulation purinerger Neurotransmission im enterischen Nervensystem, im Rückenmark und in verschiedenen Hirnregionen. An verschiedenen zentralnervösen Funktionen, wie Schmerzwahrnehmung, Atmungs- und Kreislauf-Regulation sowie Gedächtnis- und Lernprozessen sind purinerge Signale maßgeblich beteiligt und es ist wahrscheinlich, daß E-NTPDasen an der Modulation dieser Signale mitwirken. Die in dieser Arbeit beschriebene NTPDase3 ist ein viel versprechender Kandidat für die Regulation purinerger Signale im peripheren und zentralen Nervensystem.
Vortrag an der "Die Lebendigkeit kritischer Gesellschaftstheorie", einer Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno, die am 4. - 6. Juli 2003 an der Johann Wolfgang Goethe-Universität in Frankfurt am Main statfand. Koordiniert von Prof. Dr. Andreas Gruschka und Prof. Dr. Ulrich Oevermann. Die Tagungsbeiträge können auch auf CD (je CD ein Vortrag) oder als DVD (alle Vorträge im MP3-Format) käuflich erworben werden. S.a. "Die Lebendigkeit der kritischen Gesellschaftstheorie", herausgegeben von Andreas Gruschka und Ulrich Oevermann. Dokumentation der Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno. Büchse der Pandora 2004, ISBN 3-88178-324-5
In hac lacrimarum valle. Adornos Stellung zur Metaphysik in ihrem Stande einer mataphysica deiecta
(2004)
Eröffnungsvortrag der "Die Lebendigkeit kritischer Gesellschaftstheorie", einer Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno, die am 4. - 6. Juli 2003 an der Johann Wolfgang Goethe-Universität in Frankfurt am Main statfand. Koordiniert von Prof. Dr. Andreas Gruschka und Prof. Dr. Ulrich Oevermann. Die Tagungsbeiträge können auch auf CD (je CD ein Vortrag) oder als DVD (alle Vorträge im MP3-Format) käuflich erworben werden. S.a. "Die Lebendigkeit der kritischen Gesellschaftstheorie", herausgegeben von Andreas Gruschka und Ulrich Oevermann. Dokumentation der Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno. Büchse der Pandora 2004, ISBN 3-88178-324-5
We introduce a new method for representing and solving a general class of non-preemptive resource-constrained project scheduling problems. The new approach is to represent scheduling problems as de- scriptions (activity terms) in a language called RSV, which allows nested expressions using pll, seq, and xor. The activity-terms of RSV are similar to concepts in a description logic. The language RSV generalizes previous approaches to scheduling with variants insofar as it permits xor's not only of atomic activities but also of arbitrary activity terms. A specific semantics that assigns their set of active schedules to activity terms shows correctness of a calculus normalizing activity terms RSV similar to propositional DNF-computation. Based on RSV, this paper describes a diagram-based algorithm for the RSV-problem which uses a scan-line principle. The scan-line principle is used for determining and resolving the occurring resource conflicts and leads to a nonredundant generation of all active schedules and thus to a computation of the optimal schedule.
Der vorliegende Bericht zur ‘Szenestudie 2002’ vermittelt eine aktuelle Situationsbeschreibung der offenen Drogenszene in Frankfurt am Main. Diese Studie zum Drogengebrauchsverhalten und Alltagsgeschehen auf der offenen Drogenszene versteht sich als eine Teilstudie im Rahmen eines komplexen Monitoringsystems (MoSyD _‘Monitoring-System Drogentrends’), welches in 2002 in der Stadt Frankfurt eingerichtet wurde, um zeitnah und umfassend neue Entwicklungen im Bereich des Konsums legaler wie illegaler Drogen verfolgen zu können (ausführlich: Kemmesies und Hess 2001). Die folgende Zusammenfassung gibt die zentralen Beobachtungen und Ergebnisse der Erhebung wieder. Diese Teilstudie vom MoSyD fokussiert auf den so genannten problematischen Kern des Drogenphänomens: Mit der Erscheinung offener Drogenszenen gehen vielfältige drogenpolitischen Herausforderungen einher. Diese beziehen sich sowohl auf sozial-medizinische wie strafrechtliche Aspekte, wie sie in den Stichworten Infektionskrankheiten, Beschaffungskriminalität, Deprivation, Verelendung et cetera geradezu greifbare Realität gewinnen. Aufgrund der enormen sozial-, gesundheits- wie ordnungspolitischen Herausforderungen und einer mitunter rasanten Veränderungsdynamik im mittelbaren und unmittelbaren Umfeld der offenen Drogenszene dokumentieren wir bereits hiermit - außerhalb des projektierten jährlichen Berichtsturnus vom MoSyD und zeitnah zur Interviewerhebung - unsere Beobachtungen. Im Vorgriff auf die konkreten Ergebnisse sei bereits angemerkt, dass sich die Situation offenbar innerhalb der letzten Jahre stark verändert hat: Wenn bisher eine offene Drogenszene in Deutschland in erster Linie mit dem klassischen Vorstellungsbild von einem intravenös Heroin konsumierenden ‘Junkie’ assoziiert war, so scheint diese Assoziation – zumindest mit Blick auf Frankfurt – die Realität nur noch äußerst gebrochen widerzuspiegeln. Denn Heroin hat seine dominierende Position auf dem Drogenschwarzmarkt verloren und an Kokain beziehungsweise dessen Derivat Crack abgegeben. Darüber hinaus hat sich der intravenöse Drogenkonsum insgesamt deutlich – um etwa die Hälfte – reduziert. Da systematisch vergleichbare Daten weit zurückreichen und erst aus dem Jahre 1995 vorliegen (Kemmesies 1995b), lässt sich nicht näher ergründen, wie es um die Dynamik der prozessualen Veränderungen bestellt ist: Befinden wir uns am Ende einer Entwicklung oder aber stecken wir mitten in einem grundsätzlichen Veränderungsprozess, innerhalb dessen sich das Bild der offenen Drogenszene grundlegend wandeln wird. Um einen besseren Einblick in die Veränderungsdynamik gewinnen zu können, schlagen wir vor, von dem ursprünglich im Rahmen vom MoSyD vorgesehenen zweijährigen Erhebungsturnus abzurücken und die Szenestudie bereits 2003 erneut durchzuführen. Ausgehend von zentralen Ergebnissen wäre näher zu ergründen, inwieweit der offensichtliche Trend einer Altersanhebung im Umfeld der offenen Drogenszene anhält, ob es zu einer fortschreitenden Ausweitung von kokain-/crackorientierten Drogengebrauchsmustern kommt, und inwieweit diese Entwicklungen sich im allgemeinen Gesundheitszustand der Drogenkonsumenten abbilden. Weiterhin wäre zu prüfen, ob die geplante Ausweitung der Substitutionsbehandlung in Gestalt des Heroinerprobungsprogramms sich auch auf das ‘typische’ Drogengebrauchsverhalten auf der offenen Drogenszene auswirkt.
Gitter sind diskrete, additive Untergruppen des IRm, ein linear unabhängiges Erzeugendensystem eines Gitters heißt Gitterbasis. Die Anzahl der Basisvektoren eines Gitters ist eindeutig bestimmt und heißt Rang des Gitters. Zu jedem Gitter vom Rang n gibt es mehrere Gitterbasen, die man alle erhält, indem man eine Basismatrix B = [b1, · · · , bn] von rechts mit allen Matrizen aus der Gruppe GLn(ZZ) multipliziert. Eine wichtige Fragestellung der Gittertheorie ist es, zu einem gegebenen Gitter einen kürzesten, vom Nullvektor verschiedenen Gittervektor zu finden. Dieses Problem heißt das kürzeste Gittervektorproblem . Ein dazu verwandtes Problem ist das "nächste Gittervektorproblem", das zu einem beliebigen Vektor x aus IRm einen Gittervektor sucht, dessen Abstand zu x minimal ist. Aus dem "kürzesten Gittervektorproblem" entwickelte sich die Gitterbasenreduktion, deren Ziel es ist, eine gegebene Gitterbasis in eine Gitterbasis zu transformieren, deren Vektoren bzgl. der Euklidischen Norm kurz und möglichst orthogonal zueinander sind. Wichtig für die Güte einer Reduktion ist der Begriff der sukzessiven Minima ¸1(L), · · · , ¸n(L) eines Gitters L. Dabei ist ¸i(L) die kleinste reelle Zahl r > 0, für die es i linear unabhängige Vektoren cj 2 L gibt mit kcjk · r für j = 1, · · · , i. Man versucht, für ein Gitter L eine Gitterbasis b1, · · · , bn zu finden, bei der die Größe kbik / ¸i(L) für i = 1, · · · , n möglichst klein ist. Für Gitter vom Rang 2 liefert das Gauß'sche Reduktionsverfahren eine Gitterbasis mit kbik = ¸i(L) für i = 1, 2. Eine Verallgemeinerung der Gauß-Reduktion auf Gitter mit beliebigem Rang ist die im Jahre 1982 von Lenstra, Lenstra, Lovasz vorgeschlagene L3-Reduktion einer Gitterbasis, deren Laufzeit polynomiell in der Bitlänge der Eingabe ist. L3-reduzierte Gitterbasen approximieren die sukzessiven Minima bis auf einen (im Rang des Gitters) exponentiellen Faktor. Die vorliegende Arbeit besteht aus zwei Teilen. Im ersten Teil (Kapitel 1-6) wird ein neues Reduktionskonzept von M. Seysen aus der Arbeit "A Measure for the Non-Orthogonality of a Lattice Basis" behandelt und im zweiten Teil (Kapitel 7) ein aktuelles Ergebnis von M. Ajtai über die Faktorisierung ganzer Zahlen aus "The Shortest Vector Problem in L2 is NP-hard for Randomized Reductions"[2]. Seysen führte in [13] zu einer gegebenen Gitterbasis b1, · · · , bn die Größe ¾(A) ein, die nur von den Einträgen der zugehörigen Gram-Matrix A = [b1, · · · , bn]T · [b1, · · · , bn] und der Inversen A 1 abhängt. Sie hat die Eigenschaft, daß für jede Gitterbasis b1, · · · , bn mit Gram-Matrix A gilt, daß ¾(A) ¸ 1, wobei die Gleichheit genau dann gilt, wenn b1, · · · , bn orthogonal ist. Aus dieser Defintion ergibt sich folgender Reduktionsbegriff: Eine Gitterbasis b1, · · · , bn mit Gram-Matrix A heißt genau dann ¿ -reduziert, wenn ¾(A) minimal für alle Basen des Gitters ist. Der wesentliche Unterschied der ¿-Reduktion zur L3-Reduktion ist, daß die Größe ¾(A) unabhängig von der Reihenfolge der Basisvektoren ist, so daß eine ¿ -reduzierte Gitterbasis bei beliebiger Permutation der Basisvektoren ¿ -reduziert bleibt. Die ¿-Reduktion reduziert also im Gegensatz zur L3-Reduktion die Basisvektoren gleichmäßig. Seysen zeigte, daß man zu jedem Gitter vom Rang n eine Gitterbasis mit Gram-Matrix A findet, so daß ¾(A) durch eO((ln n)2) beschränkt ist. Daraus läßt sich ableiten, daß ¿ -reduzierte Gitterbasen eines Gitters vom Rang n die sukzessiven Minima bis auf den Faktor eO((ln n)2) approximieren. Da es sich bei der ¿-Reduktion um einen sehr starken Reduktionsbegriff handelt, für den es schwer ist, einen effizienten Algorithmus zu finden, definiert man folgenden schwächeren Reduktionsbegriff: b1, · · · , bn heißt genau dann ¿2-reduziert, wenn keine Basistransformation der Form bj := bj +k · bi mit 1 · i 6= j · n und k 2 ZZ die Gr¨oße ¾(A) erniedrigt. Für n = 2 entspricht die ¿-Reduktion sowohl der ¿2- Reduktion als auch der Gauß-Reduktion. Für die ¿2-Reduktion findet man einen effizienten Algorithmus. Wendet man diesen Algorithmus auf Rucksackprobleme an, so ergibt sich, daß durch einen Algorithmus, bestehend aus ¿2-Reduktion und anschließender L3-Reduktion, bei großer Dichte und bei kleiner Dimension wesentlich mehr Rucksackprobleme gelöst werden als durch den L3-Algorithmus. Die Faktorisierung großer ganzer Zahlen ist ein fundamentales Problem mit großer kryptographischer Bedeutung. Schnorr stellte in [11] erstmals einen Zusammenhang zwischen Gitterbasenreduktion und Faktorisierung her, indem er das Faktorisieren ganzer Zahlen auf das "nächste Gittervektorproblem in der Eins-Norm" zurückführte. Adleman führte in [1] das Faktorisieren ganzer Zahlen sogar auf das "kürzeste Gittervektorproblem in der Euklidischen Norm" zurück, allerdings unter zahlentheoretischen Annahmen. In [2] stellte Ajtai ein neues Ergebnis vor, in dem er das Faktorisieren ganzer Zahlen auf das "kürzeste Gittervektorproblem in der Euklidischen Norm" ohne zusätzliche Annahmen zurückführte.
In the last years, much effort went into the design of robust anaphor resolution algorithms. Many algorithms are based on antecedent filtering and preference strategies that are manually designed. Along a different line of research, corpus-based approaches have been investigated that employ machine-learning techniques for deriving strategies automatically. Since the knowledge-engineering effort for designing and optimizing the strategies is reduced, the latter approaches are considered particularly attractive. Since, however, the hand-coding of robust antecedent filtering strategies such as syntactic disjoint reference and agreement in person, number, and gender constitutes a once-for-all effort, the question arises whether at all they should be derived automatically. In this paper, it is investigated what might be gained by combining the best of two worlds: designing the universally valid antecedent filtering strategies manually, in a once-for-all fashion, and deriving the (potentially genre-specific) antecedent selection strategies automatically by applying machine-learning techniques. An anaphor resolution system ROSANA-ML, which follows this paradigm, is designed and implemented. Through a series of formal evaluations, it is shown that, while exhibiting additional advantages, ROSANAML reaches a performance level that compares with the performance of its manually designed ancestor ROSANA.
In the last decade, much effort went into the design of robust third-person pronominal anaphor resolution algorithms. Typical approaches are reported to achieve an accuracy of 60-85%. Recent research addresses the question of how to deal with the remaining difficult-toresolve anaphors. Lappin (2004) proposes a sequenced model of anaphor resolution according to which a cascade of processing modules employing knowledge and inferencing techniques of increasing complexity should be applied. The individual modules should only deal with and, hence, recognize the subset of anaphors for which they are competent. It will be shown that the problem of focusing on the competence cases is equivalent to the problem of giving precision precedence over recall. Three systems for high precision robust knowledge-poor anaphor resolution will be designed and compared: a ruleset-based approach, a salience threshold approach, and a machine-learning-based approach. According to corpus-based evaluation, there is no unique best approach. Which approach scores highest depends upon type of pronominal anaphor as well as upon text genre.
Assessing enhanced knowledge discovery systems (eKDSs) constitutes an intricate issue that is understood merely to a certain extent by now. Based upon an analysis of why it is difficult to formally evaluate eKDSs, it is argued for a change of perspective: eKDSs should be understood as intelligent tools for qualitative analysis that support, rather than substitute, the user in the exploration of the data; a qualitative gap will be identified as the main reason why the evaluation of enhanced knowledge discovery systems is difficult. In order to deal with this problem, the construction of a best practice model for eKDSs is advocated. Based on a brief recapitulation of similar work on spoken language dialogue systems, first steps towards achieving this goal are performed, and directions of future research are outlined.
Robuste Anaphernresolution
(2004)
In the last years, much effort went into the design of robust anaphor resolution algorithms. Many algorithms are based on antecedent filtering and preference strategies that are manually designed. Along a different line of research, corpus-based approaches have been investigated that employ machine-learning techniques for deriving strategies automatically. Since the knowledge-engineering effort for designing and optimizing the strategies is reduced, the latter approaches are considered particularly attractive. Since, however, the hand-coding of robust antecedent filtering strategies such as syntactic disjoint reference and agreement in person, number, and gender constitutes a once-for-all effort, the question arises whether at all they should be derived automatically. In this paper, it is investigated what might be gained by combining the best of two worlds: designing the universally valid antecedent filtering strategies manually, in a once-for-all fashion, and deriving the (potentially genre-specific) antecedent selection strategies automatically by applying machine-learning techniques. An anaphor resolution system ROSANA-ML, which follows this paradigm, is designed and implemented. Through a series of formal evaluations, it is shown that, while exhibiting additional advantages, ROSANAML reaches a performance level that compares with the performance of its manually designed ancestor ROSANA.
Syntactic coindexing restrictions are by now known to be of central importance to practical anaphor resolution approaches. Since, in particular due to structural ambiguity, the assumption of the availability of a unique syntactic reading proves to be unrealistic, robust anaphor resolution relies on techniques to overcome this deficiency. In this paper, two approaches are presented which generalize the verification of coindexing constraints to de cient descriptions. At first, a partly heuristic method is described, which has been implemented. Secondly, a provable complete method is specified. It provides the means to exploit the results of anaphor resolution for a further structural disambiguation. By rendering possible a parallel processing model, this method exhibits, in a general sense, a higher degree of robustness. As a practically optimal solution, a combination of the two approaches is suggested.
An anaphor resolution algorithm is presented which relies on a combination of strategies for narrowing down and selecting from antecedent sets for re exive pronouns, nonre exive pronouns, and common nouns. The work focuses on syntactic restrictions which are derived from Chomsky's Binding Theory. It is discussed how these constraints can be incorporated adequately in an anaphor resolution algorithm. Moreover, by showing that pragmatic inferences may be necessary, the limits of syntactic restrictions are elucidated.