diplomthesis
Refine
Year of publication
Document Type
- diplomthesis (224) (remove)
Has Fulltext
- yes (224)
Is part of the Bibliography
- no (224)
Keywords
- Stochastik (3)
- Diskursanalyse (2)
- RDF (2)
- Semantic Web (2)
- Soziologie (2)
- Statistik (2)
- Stochastischer Prozess (2)
- Strahltransport (2)
- Yule-Prozess (2)
- Ablenkung <Physik> (1)
Institute
- Physik (106)
- Mathematik (39)
- Informatik (29)
- Gesellschaftswissenschaften (15)
- Geowissenschaften (9)
- Wirtschaftswissenschaften (8)
- Biowissenschaften (4)
- Erziehungswissenschaften (4)
- Biochemie und Chemie (3)
- Geographie (1)
Wir haben Aussagen über das Eigenwertspektrum der freien Schwingungegleichung für einen Hohlraum B gesucht, welche unabhängig von der Gestalt des Hohlraumes nur von Gestaltparametern abhängen, die als Integrale über B bzw. über dessen Oberfläche ... Eigenschaften von ganz B darstellen, ohne die lokale Struktur der Oberfläche ... zu enthalten. An drei Testkörpern sehr verschiedener Gestalt (die Gestaltparameter waren ebenfalls verschieden), nämlich Würfel, Kugel und Zylinder, haben wir die Hypothese bestätigt, daß der mittlere Verlauf der Größen "Anzahl N und Summe E aller Eigenwerte unterhalb einer willkürlich vorgegebenen Schranke ER" in Abhängigkeit von der Wahl dieser Schranke i.w. gestaltunabhängig ist. Für den Quader lassen sich im Falle asymptotisch großer ER explizite Ausdrücke für N und E angeben, die für alle drei Testkörper nicht nur den mittleren Verlauf von N und E bei kleinen (endlichen) ER in zweiter Näherung (in Potenzen von Ef exp -1/2) richtig wiedergaben, sondern auch als numerische Näherung dss mittleren Verlaufs von N bzw. E brauchbar waren (relative Kleinheit des Restgliedes). Die mathematische Vermutung, daß sich für aS, große Ef eben diese expliziten Ausdrücke für N bzw. E' als gestaltunabhängig erweisen, soll in einer weiteren Arbeit behandelt werden. Das Ergebnis dieser Arbeit ist überall dort anwendbar, wo Eigenschaften des Spektrums der freien Schwingungsgleichung mit Randbedingungen benötigt werden, die sich aus N. bzw. E ableiten lassen; also vor allem in der Akustik (Zahl der Obertöne eines Hohlraumes unterhalb einer vorgegebenen Frequenz), in der Theorie der Hohlleiter usw. In dieser Arbeit haben wir die Anwendung auf ein einfaches Atomkernmodell betrachtet, das Fermigas-Modell. Es beschreibt den Kern als freies ideales in einem Hohlraum von Kerngestalt befindliches Fermigas. Dann bedeutet N die Teilchenzahl und E die Gesamtenergie des Systems. Ef ist die Fermigrenzenergie und es ist (Ef exp 3/2 /6*Pi*Pi) die Sättigungsdichte im Innern des Systems. Der Koeffizient des zweiten Termes des expliziten (aS.) Ausdrucks für E kann dann als Oberflächenspannung gedeutet werden. Die spezifische Hodell-Oberflächenspannung läßt sich in Abhängigkeit von dem Gestaltparametern und der Siittigungsdichte des Atomkernes schreiben. Nach Einsetzen der empirischen Werte erhalten wir numerisch einen Wert, der nur um 20% vom empirisch aus der v. Weizsäckerformel bekannten Wert für die spez. Oberflächenspannung abwich, obgleich das Modell nur eine äußerst einfache Näherung der Kernstruktur sein kann. Daher gelangten wir zu der Überzeugung, daß der Oberflächenanteil der Bindungsenergie wesentlich ein kinetischer Effekt ist.
Im Rahmen der vorliegenden Arbeit wurde eine Gahor-Plasma-Linse zur Fokussierung positiver Ionenstrahlen niedriger Energie konzipiert und aufgebaut. Die Erzeugung der Elektronen geschieht hier über eine Gasentladung, die im Linsenvolumen brennt. Die entstandenen Elektronen werden in einem elektromagnetischen Feld eingefangen. Die entstandenen Restgasionen werden aus dem Linsenvolumen herausbeschleunigt. Die Lösung der Bewegungsgleichung von Elektronen in gekreuzten elektrischen und magnetischen Feldern, unter Berücksichtigung der Elektronenraumladung, führt auf die Existenz einer maximalen Elektronendichte die abhängig ist vom Quadrat des magnetischen Feldes. Die Rechnung zeigte überdies, daß nach dem lokalen Erreichen der maximalen Elektronendichte eine Homogenisierung der Raumladung stattfindet. Die Diffusion der Elektronen, durch Stöße wurde allerdings nicht berücksichtigt. Eine generelle Aussage über das radiale Dichteprofil kann nicht gemacht werden. Die Untersuchungen zum Entladungsverhalten wurden für verschiedene Betriebsgase durchgeführt. Eine Zündung der Gasentladung konnte oberhalb einer gewissen Anodenspannung und eines gewissen Magnetfeldes immer erreicht werden. Die gegenüber der Paschenbedingung niedrigere Anodenspannung bei vorhandensein eines Magnetfeldes konnte anband der "verkleinerten" freien Weglänge erklärt werden. Die Dichtemessungen der Elektronen wurden mit einem elektrostatischem Gegenfeldspektrometer und einer elektrischen Langmuirsonde durchgeführt. Letztere ergaben, aufgrund der starken Störung der Gasentladung durch die Sonde, keine verwertbaren Ergebnisse. Die Energie der aus dem Linsenvolurnen herausbeschleunigten Restgasionen erlaubt im Prinzip einen Rückschluß auf ihr Entstehungspotential. Obwohl auch hier keine quantitative Aussage über das Dichteprofil gemacht werden konnte, erlaubte die Messung eine quantitative Aussage über den Füllgrad. Hierbei zeigen sich bei verschiedenen Betriebsbedingungen drastische Unterschiede. Die besten Ergebnisse ergaben Messungen an einer Entladung bei niedrigem Druck und geringer Stromstärke und hohem Magnetfeld. Ein empfindliches Meßinstrument zur Bestimmung der radialen Dichteverteilung ist der zu fokussierende Ionenstrahl selbst. Die Linse wurde in eine bestehende Ionenstrahltransportstrecke eingefügt. Messungen mit Argon- und Heliumionenstrahlen bei 10 ke V Strahlenergie und Strömen zwischen 200 mikroA und 1.15 mA wurden durchgeführt.Die Emittanz und Profilmessungen zeigten auch hier wieder eine drastische Abhängikeit des Strahlverhaltens von den eingestellten Linsenparametern. Zum überwiegenden Teil wurden Ausgangsemittanzen gemessen, die neben den stärksten beobachteten Fokussiereffekte starke sphärische Aberrationen zeigten und mit erheblichem Emittanzwachstum verbunden waren. Dies läßt auf eine stark inhomogene Verteilung der Elektronen schließen. Diese Ergebnisse wurden hauptsächlich bei hohen Linsenspannungen erzielt und zeigten zudem eine z.T. erhebliche Reduzierung des Kompensationsgrades hinter der Linse. Bei niedriger Iinsenspannung zeigte sich eine reduzierte Fokussierung des Strahles, die Aberrationen und das Emittanzwachstum waren aber weitaus geringer. Der Kompensationsgrad des Strahles hinter der linse blieb z. T. gegenüber einer reinen Driftmessung erhalten oder stieg sogar an. Die besten Ergebnisse ergaben sich bei 1500 V zwischen Anode und Kathode und einem magnetischen Feld auf der Achse von 280 Gauß. Der Restgasdruck betrug 1*10-5 hPa (größtenteils Helium). Ein 10 keV Heliumstrahl konnte entsprechend einer Brennweite von 20 cm bei vernachlässigbarem Emittanzwachstum fokussiert werden. Eine Variation der Linsenbrechkraft bei gleichzeitig kleinem Emittanzwachstum konnte nur in einem geringen Maße erreicht werden. Die angeführten Untersuchungen zeigen, daß es prinzipiell möglich ist, eine durch eine Gasentladung gefüllte Gabor-Plasma-Linse, als ionenoptisches Element zu betreiben. Eine Linearität der Feldveneilung und einen genügend hohen Füllgrad konnte nur in einigen Betriebszuständen erreicht werden. Die theoretischen und experimentellen Ansätze sind durchaus vielversprechend und lassen erhebliche Verbesserungen durch weitergehende Untersuchungen erwarten. Hier sind insbesondere theoretische und numerische Untersuchungen über das Einschlußverhalten von Elektronen in gekreuzten elektrischen und magnetischen Feldern notwendig. Dies führt zu einer Optimierung der Linsengeometrie hinsichtlich eines höheren Füllgrades. Fadenstrahlmessungen sind eine Möglichkeit um Aussagen über das radiale Dichteprofil zu gewinnen. Aber auch die Füllung der Linse mit thermischen Elektronen könnte ein Gegenstand weiterer Untersuchungen sein.
Gegenstand dieser Arbeit ist das Entropiegesetz und seine Bedeutung für die Umweltökonomie. Das Grundgesetz vom Niedergang , wie Schütze es genannt hat, trifft in seiner ursprünglichen Bedeutung Aussagen über die Umwandlung von verschiedenen Formen von Energie bzw. über ihre Nutzbarkeit u.a. für menschliche Belange. So ist zu erklären, daß die stärkste Beschäftigung der Ökonomen mit dem Entropiegesetz in der Folge der sog. Ölkrise und der Studie Grenzen des Wachstums stattfand, da zu dieser Zeit der Gedanke einer plötzlichen Erschöpfbarkeit der Energiequellen um so stärker in den Vordergrund drang, wie es in der Zeit davor normal erschien, daß sich der Energieverbrauch regelmäßig verdoppelte. Das Thema physikalische Grenzen des wirtschaftlichen Wachstums ist in der öffentlichen wie auch in der (wirtschafts-) wissenschaftlichen Diskussion durch aktuellere und akutere Probleme in den Hintergrund gedrängt worden und mit ihm auch der Begriff Entropie. Diese akuteren Probleme sind vor allem im Zusammenhang mit Stoffen zu sehen, die den Bereich des menschlichen Wirtschaftens verlassen. Die zunehmende Umweltverschmutzung stellt sich in den letzten Jahren als das vordringliche Problemfeld für die Umweltökonomie dar. Zu erinnern wäre hier beispielhaft einerseits an die Unfälle bei Sandoz in Basel und des Kernkraftwerks in Tschernobyl sowie die Havarie des Tankers Exxon Valdez in Alaska. Andererseits ist aber auch der Normalbetrieb mit Problematiken wie der u.a. durch FCKWs zunehmenden Zerstörung der Ozonschicht oder auch dem übermäßigen Auftreten von Ozon in Bodennähe im Zusammenhang mit dem photochemischen Smog verbunden...
Im Mittelpunkt der vorliegenden Arbeit stehen die Nullstellen der nach Bernhard Riemann benannten Riemannschen Zetafunktion ..(s). Diese Funktion kann für komplexes s mit Res > 1 durch ...(s) = 1 X n=1 1 ns (1.1.1) dargestellt werden. Für andere Werte von s ist ...(s) durch die analytische Fortsetzung der Dirichlet-Reihe in (1.1.1) gegeben. Die ...-Funktion ist in der ganzen komplexen Ebene holomorph, mit Ausnahme des Punktes s = 1, wo sie einen einfachen Pol besitzt. Diese und weitere Eigenschaften von ...(s) setzen wir in dieser Arbeit als bekannt voraus, näheres findet man beispielsweise in [Tit51] oder [Ivi85]. Bereits Euler betrachtete, beispielsweise in [Eul48, Caput XV], die Summe in (1.1.1), allerdings vor allem für ganzzahlige s ... 2. Von ihm stammt die Gleichung 1 X n=1 1 ns =.... die für alle komplexen s mit Res > 1 gültig ist. Dieser Zusammenhang zwischen der ...-Funktion und den Primzahlen war Ausgangspunkt für Riemanns einzige zahlentheoretische, aber dennoch wegweisende Arbeit \ Über die Anzahl der Primzahlen unter einer gegebenen Grösse." ([Rie59]). In dieser 1859 erschienenen Arbeit erkannte Riemann als erster die Bedeutung der Nullstellen der ...-Funktion für die Verteilung der Primzahlen. Bezüglich dieser Nullstellen sei jetzt nur so viel gesagt, daß ...(s) einfache Nullstellen an den negativen geraden Zahlen .... besitzt, und, daß alle weiteren, die sogenannten nicht-trivialen Nullstellen, im kritischen Streifen 0 < Res < 1 liegen. Diese letzteren | unendlich vielen | Nullstellen sind gerade für den Primzahlsatz, also für die Beziehung ...(x) ... li(x);
Konzeptionelle Untersuchungen eines Dielektronenspektrometers für Schwerionenstöße im GeV/u-Bereich
(1993)
Im Sommer 1992 wurde an Abschnitten der Rur und ihres Nebenflusses Inde (Niederrheinische Bucht, Nordrhein-Westfalen) die Ufervegetation pflanzensoziologisch untersucht und die lokale Verbreitung von Neophyten mit Hilfe einer speziell entwickelten Methode der Feinkartierung erfaßt.
Die Ufervegetation der Rur weist nur in zwei Teilbereichen natürliche bzw. naturnahe Vegetationstypen der Flußufer in guter Ausbildung auf; hier treten flächenhaft Gesellschaften der Convolvuletalia, des Phragmition und Sparganio-Glycerion, des Bidention und des Salicion purpureae auf. Die übrigen Bereiche der Rur und ebenso die Inde sind ausgebaut und durch relativ intensiv "gepflegte", botanisch verarmte Ufer gekennzeichnet.
Insgesamt wurden knapp 60 Kilometer Uferstrecke abgegangen und dabei etwa 30 neophytische Sippen nachgewiesen; hiervon wurden 15 ausgewählte Sippen systematisch kartiert. Für etwa ein Dutzend im Untersuchungsgebiet häufigere Neophyten wurden Verbreitungskarten erstellt und diskutiert.
Parallel zur Feinkartierung von Neophyten wurden im Gelände und aus schriftlichen Quellen verschiedene Formen anthropogener Standortveränderungen erfaßt, um Hinweise auf Zusammenhänge mit der Ausbreitung der Neophyten zu erhalten.
Aus einer Sichtung der diesbezüglichen Literatur ergaben sich zwei Gruppen von Hypothesen darüber, welcher Typ von anthropogenen Einflüssen die Ausbreitung von Neophyten an Flüssen besonders begünstigt: von einigen Autoren wurden direkte mechanische Eingriffe im Uferbereich, wie Kanalisierung und Auwaldrodung, als maßgeblich betrachtet, von anderen Autoren wurde dagegen in den chemischen Belastungen des Flußwassers der Hauptfaktor vermutet. Es wurde in der vorliegenden Arbeit aber davon ausgegangen, daß die Daten, die bisher zu Aussagen über die Neophyten-Problematik an Flußufern herangezogen wurden, im wesentlichen auf zu kleinmaßstäbigen Kartierungen und auf zu spezieller Betrachtung einzelner neophytischer Arten beruhten.
Deshalb wurde in der vorliegenden Arbeit versucht, zusätzlich zur Feinkartierung einen neuen methodischen Ansatz zu entwickeln, um die Bedeutung, die Neophyten insgesamt in der Vegetation eines bestimmten Flußabschnitts haben, synthetisch zu analysieren.
Es wurde ein "Neophyten-Index" als Maß des Neophytenreichtums ermittelt; er bezieht sich immer auf einen bestimmten Flußabschnitt und ergibt sich aus der Gesamtzahl und Häufigkeit der in dem Abschnitt gefundenen neophytischen Sippen. Der Neophyten-Index als synthetischer Ausdruck floristischer Veränderungen ermöglichte einen groben Vergleich mit Daten zu anthropogenen Standortveränderungen. Die Probleme derartiger schematischer Berechnungen wurden diskutiert; alle Aussagen über die Ergebnisse mußten vorbehaltlich der Notwendigkeit kritischer Interpretation erfolgen.
Eine wichtige Rolle bei den Untersuchungen spielte die Frage des Status von Neophyten-Vorkommen; wesentlich war auch die Kenntnis der aktuellen Phase der Einwanderung eines Neophyten in das Untersuchungsgebiet. Vorkommen mit zufälligem Charakter, also unbeständige oder vorpostenartige Vorkommen, erlauben nur begrenzt ökologische Aussagen. Deshalb waren nicht alle gefundenen Neophyten gleichermaßen für die Berechnung eines Neophyten-Index verwendbar. Neben Beobachtungen im Gelände waren zur Beurteilung dieser Fragen umfangreiche Auswertungen der Literatur notwendig. Als Ergebnis wurde also zunächst sippenbezogen die Geschichte der Ausbreitung rekonstruiert, sowie die gegenwärtige Verbreitung und der Status im Untersuchungsgebiet ermittelt. Acht Neophyten wurden dann als geeignet befunden, in die Berechnung des Neophyten-Index einzugehen.
Es ergaben sich deutliche Unterschiede im Neophyten-Index verschiedener Flußabschnitte: für den unteren Bereich der Rur unterhalb der Einmündung der Inde und besonders für die Inde selbst ergaben sich deutlich höhere Neophyten-Indices als für den oberen Bereich der Rur.
Entgegen häufigen allgemeinen Angaben in der Literatur gab es im Untersuchungsgebiet keinen erkennbaren Zusammenhang zwischen dem Ausbauzustand eines Flußabschnittes und dessen Neophytenreichtum; einige naturnah mäandrierende Abschnitte der Rur waren deutlich neophytenreicher als andere, regulierte Abschnitte.
Ebensowenig war im gewählten Maßstabsbereich ein Zusammenhang zwischen der Beschattung der Ufer durch Gehölze und dem Neophytenreichtum festzustellen; der gesamte obere Bereich der Rur war trotz geringer Beschattung relativ neophytenarm.
Eine sehr auffällige Koinzidenz besteht jedoch zwischen Neophyten-Index und der Gewässergüteklasse der Teilabschnitte; die Inde ist durch vor allem industrielle Abwässer erheblich verschmutzt, während die Rur oberhalb der Einmündung der Inde nur geringere Belastungen aufzuweisen hat. Eine deutliche Abhängigkeit der Neophyten-Ausbreitung von der Gewässerbelastung wurde in der Literatur bisher zwar von einigen Autoren vermutet, jedoch nie durch exakte Kartierungen in geeigneten Untersuchungsgebieten nachgewiesen.
Die hier nachgewiesene Koinzidenz zwischen Gewässerbelastung und Neophytenreichtum muß mit Vorsicht interpretiert werden; weitere Faktoren unbekannter Bedeutung kommen hinzu. Als Einschleppungsort bzw. Ausbreitungszentrum von Neophyten könnte etwa die Industrieregion im Einzugsgebiet der Inde - oberhalb des Untersuchungsgebiets - eine Rolle spielen. Auch ein Einfluß des Abflußregimes auf die Ausbreitung von Neophyten kann nach den vorliegenden Daten nicht ausgeschlossen werden.
Abschließend werden die konkreten Standortfaktoren Wasserhaushalt und Bodensubstrat bezüglich ihrer noch weitgehend im Dunkeln liegenden Abwandlung durch anthropogene Einflüsse diskutiert.
QCD-Summenregeln mit Massen
(1993)
Im HADES-Detektorsystem werden Vieldraht-Driftkammern zur Spurrekonstruktion verwendet. Für eine genaue Untersuchung des Driftzeitverhaltens innerhalb der Driftzellen wird ein ortsempfindliches Referenzdetektorsystem benötigt. Hierfür wurden Silizium-Mikrostreifen-Detektoren mit einer Ortsauflösung im Bereich kleiner als 10 mikrom eingesetzt. Diese wurden zu einem Strahlteleskop zusammengebaut, mit dem die Teilchentrajektorie zwischen zwei Referenz-Meßunkten bestimmt werden kann. Probleme bereitete die Vielfachstreuung in den einzelnen Komponenten des Teleskop-Aufbaus, die den geradlinigen Teilchendurchgang zwischen den beiden Ortsmessungen beeinflußte. Dies wurde durch Messung mit Teilchen höherer Steifigkeit ausgeglichen. Die Silizium-mü-Streifen-Detektoren zeigten ein gutes Signal-zu-Untergrund Verhalten und wiesen eine sehr gute Effizienz auf. Die Bestimmung des Teilchendurchgangsortes durch den Driftkammer-Prototyp 0 ermöglichte die Messung der Driftgeschwindigkeit. Auch das Driftzeitverhalten in Abhängigkeit vom Ort des Teilchendurchgangs konnte genau untersucht werden.
Gitter sind diskrete additive Untergruppen des Rn. Praktische Bedeutung erlangte die Gittertheorie durch effziente Algorithmen zur Gitterbasenreduktion, mit deren Hilfe Optimierungsprobleme gelöst werden können. Der erste dieser Algorithmen wurde von Lenstra, Lenstra und Lovasz entwickelt. Schnorr und Euchner entwickelten effizientere Algorithmen. Sie untersuchten die Güte der Reduktion anhand von Rucksack-Problemen. Bei einem Rucksack-Problem der Dimension n müssen aus einer gegebenen Menge von n Gewichten diejenigen bestimmt werden, die zusammen einen gegeben Rucksack genau ausfüllen. Die Algorithmen von Schnorr und Euchner lösen fast alle Rucksack-Probleme der Dimensionen 42 bis 66. Meine neuen verbesserten Algorithmen lösen einen noch größeren Anteil der Rucksack-Probleme in kürzerer Rechenzeit. Gleichzeitig sind sie in Dimensionen 103 bis 151. Coster, Joux, LaMacchia. Odlyzko, Schnorr und Stern geben eine untere Schranke für die Größe der Gewichte von Rucksack-Problemen an, die fast immer gelöst werden können. Die Gewichte werden zufällig aus einem Intervall natüurlicher Zahlen gewählt. Dieses Ergebnis erweitere ich auf k-fache Rucksack-Probleme. Weiterhin kann für für die Wahl jedes Gewichtes eine beliebige Menge ganzer Zahlen festgelegt werden. Ebenso sind Mengen mit nur einem Element zulässig.
Im Verlauf dieser Arbeit zeigte sich, daß es möglich ist, Spuren von Teilchen, die zwei Detektoren durchquerten, einander zuzuordnen; dies mit um so größerer Sicherheit, je kleiner die Spurdichte war. Anhand eines systematischen Vergleichs von Spurparametern zugeordneter Spuren gelang es, die Position eines Spurdetektors (TPC) relativ zum zweiten Detektor und dem Target genau zu bestimmen. Die Bedeutung dieser Position ist allerdings nicht eindeutig, da eine fehlerhafte, ortsabhängige Verzerrungskorrektur der TPC Meßdaten ebenfalls zu systematischen Verschiebungen und Verdrehungen der TPC führen kann. Letztlich ist es sogar möglich, daß die Position der TPC besser vermessen wurde als die der Streamerkammer, da auch die Messmarken - die fiducials - die den Bezug zwischen der Streamerkammer und den Magnetkoordinaten herstellen - , der schlechten Rekonstruktionsgenauigkeit der z-Komponente in der Streamerkammer unterliegen. Die Kenntnis der exakten Position der TPC ist deshalb notwendig, da die TPC alleine keine Impulsinformation liefert, sondern der Teilchenimpuls erst mit Hilfe der genau bekannten Vertexposition und dem gemessenen Magnetfeld möglich ist. Es zeigte sich, daß diese ermittelten Positionen unerläßlich für eine konsistente Impulsbestimmung beider Detektoren sind. Wie zu erwarten, ist das Transversalimpulsspektrum empfindlich auf die Position des TPC-Detektors. Durch Variation möglicher Positionen um die gefundene wurde eine Abschätzung des systematischen Fehlers in pT erreicht. Dieser kann 20% erreichen. Im folgenden Experiment - NA49 - werden sich zwei Vertex-TPC's hintereinander in einem inhomogenen Magnetfeld befinden. Dahinter und außerhalb des Magnetfeldes stehen nebeneinander zwei Haupt-TPC's. Da zur Messung des Magnetfeldes die Vertex-TPC's vollständig aus den Magneten entfernt werden, ist die Findung des Bezugs zwischen den Magnetkoordinaten und denen der Vertex-TPC's ein Problem zukünftiger Datenanalysen. Außerdem wird die relative Position der Haupt-TPC's zu den Magneten benötigt, um den funktionalen Zusammenhang zwischen der Ablenkung durch die Magneten und dem Impuls der Spur zu bestimmen, da in den Haupt-TPC's kein Magnetfeld die Spuren krümmt. Anderenfalls wäre auch hier keine konsistente Impulsbestimmung möglich.
In der vorliegenden Arbeit wurden die Signalformen eines großvolumigen Germanium- Detektors analysiert, mit dem Ziel, den primären Wechselwirkungsort des Photons im Detektor zu bestimmen. Die experimentellen Voraussetzungen dazu bestehen erst seit der Entwicklung schneller Analog-Digital-Wandler, mit denen man in der Lage ist, Detektorsignale direkt nach dem Vorverstärker zu digitalisieren und somit einer genauen Analyse zu unterziehen. Im experimentellen Teil der Arbeit wurden dazu die von einem großvolumigen p-Typ HPGe-Detektor der "koaxial einseitig geschlossenen" Bauart gelieferten Signale abgetastet und digitalisiert. Synchron dazu wurde die Energie mit Analogelektronik gemessen. Die Messungen wurden für verschiedene Energien in Abhängigkeit vom Auftreffort des g-Quants auf dem Detektor durchgeführt. Dabei wurde der Detektor mit g- Quellen im Energiebereich bis 700keV an verschiedenen Positionen kollimiert bestrahlt. Zu den Messungen wurden Simulationsrechnungen durchgeführt, die sich in zwei Schritte gliederten. Im ersten Schritt wurden mittels des Monte-Carlo-Simulationsprogramms GEANT die Wechselwirkungsorte und die dort deponierten Energien eines g-Quants in einem Germanium-Detektor ermittelt. Im zweiten Schritt wurden daraus, unter Berücksichtigung der Detektorgeometrie und des dadurch vorgegebenen elektrischen Feldes, die Pulsformen berechnet. Aus der Anpassung der Rechnungen an die experimentellen Daten konnte über die Variation des einzigen freien Parameters der Ladungsträgerkonzentration, eine sehr gute Übereinstimmung der Anstiegszeitenverteilungen erzielt werden. Die Ladungsträgerkonzentration ließ sich damit mit einer Genauigkeit von 33% bestimmen. Durch eine Analyse der gemessenen digitalisierten Pulsformen konnte der Einstrahlort mit einer Wahrscheinlichkeit von 75,20% bestimmt werden. Dazu ist nur die Messung zweier Zeiten, der Zeit zwischen 10% und 30% der Pulshöhe und der Zeit zwischen 10% und 90% der Pulshöhe, notwendig. Die Ortsauflösung variierte dabei zwischen 4,1mm und 7,5mm. Mit Hilfe der Simulation konnten die Detektorbereiche identifiziert werden, für die eine eindeutige Zuordnung der Pulse zum Einstrahlort gelingt. Darauf aufbauend bietet die Simulation die Möglichkeit, neue Detektorgeometrien im Hinblick auf ihre Eigenschaften zur Bestimmung des Einstrahlortes zu entwickeln. Durch die Bestimmung des Einstrahlortes eines g-Quants auf dem Detektor läßt sich eine Dopplerkorrektur bei der Energiemessung von im Flug emittierten g-Quanten durchführen, die in einer deutlich verbesserten Energieauflösung resultiert.
Ziel dieser Arbeit war die Entwicklung einer ergänzenden Korrekturmethode auf die bei hohen Multiplizitäten auftretende Ineffizienz des im Rahmen des NA35-Experiments benutzten zentralen Spurdetektors, der NA35-Streamerkammer, sowie die Analyse der damit aufgenommenen Kern-Gold-Ereignisse. Diese, speziell für hohe Multiplizitäten und große Rapiditäten konzipierte Korrekturmethode zeigt im Bereich um Midrapidity gute Übereinstimmung mit den traditionellen Korrekturmethoden als auch mit den Daten des zweiten, zur Streamerkammer komplementären Spurdetektors, der NA35-TPC, für hohe Rapiditäten. Es ist somit eine Erweiterung der Streamerkammerakzeptanz je nach Stoßsystem um 0.5-1 Rapiditätseinheiten gelungen, die eine 4-Pi-Extrapolation auf den vollständigen Phasenraum erlaubt. Die Analyse der damit korrigierten Daten zeigt für die Rapiditätsverteilung der negativen Hadronen eine systematische Verschiebung der gemessenen sowie extrapolierten mittleren Rapidität weg von Midrapidity des Nukleon-Nukleon-Stoßes bei zunehmender Asymmetrie des Stoßsystems. Die Formen der Rapiditätsverteilungen scheinen sich jedoch zu gleichen und die Multiplizität skalierte in etwa mit dem Massenverhältins der Projektilkerne. Ebenso zeigt die spezifische Produktionsrate für negative Hadronen pro partizipierendem Nukleon keine signifikante Projektilabhänigkeit, sie liegt bei ~ 1.7 h-/N part.Protons. Die Rapiditätsverteilungen der Nettoprotonen skalieren oberhalb midrapidity mit der Projektilmasse und deutet auf keine Abhängigkeit des stoppings von der Größe des Projektilkerns hin. Sämtliche Projektilnukleonen scheinen im wesentlich schwereren Targetkern demnach gleichviel Energie zu deponieren (gleich stark abgebremst zu werden). Die Transversalimpulsspektren der Nettoprotonen lassen sich gut durch die Verteilungen thermischer Quellen beschreiben, wobei sich für das Stoßsystem 2d+197Au eine Temperatur der Quelle von ungefähr 160MeV, also im Bereich des Hagedorn-Limits, ergibt. Im Falle der 16O+197Au-Daten ergeben sich Temperaturen größer 200MeV. Diese Arbeit schließt die Akzeptanzlücke zwischen den zwei komplimentären Spurdetektoren im NA35-Experiment und ermöglicht damit die Studie von Schwerionenstößen im nahezu vollständigen Phasenraum für zentrale Kern-Gold-Kollisionen.
Wir haben uns mit der Leitfähigkeitsdynamik von Barium-Natrium-Niobat-Kristallen (BSN-Kristallen) auseinandergesetzt und haben verschiedene Untersuchungen zum Themenkreis Lyapunov-Exponenten anhand von experimentellen BSN-Zeitreihen durchgeführt. Als einen typischen größten Lyapunov-Exponenten von chaotischen BSN-Zuständen erhalten wir Werte in der Größenordnung von 0.1 / s. Der Maximalwert entspricht ca. 3.5 bits pro Attraktorumlauf. Wir beobachten für die Mehrzahl der chaotische BSN-Zustände entlang der unersuchten Ruelle-Takens-Newhouse-Route (RTN-Route) zwei positive Lyapunov-Exponenten mit einem schmalen Übergangsbereich in dem wir nur einen positiven Lyapunov-Exponenten erkennen. Diesen Befund interpretieren wir als eine kompleer werdende Dynamik mit wachsender Stromstärke durch den Kristall, die wir auch durch eine kompliziertere Attraktorstruktur der BSN-Zustände entlang der RTN-Route ins Chaos bestätigen können. Die Abschätzung von Lyapunov-Exponenten der BSN-Zustände entlang der RTN-Route bestätigen die meisten der Ergebnisse, die wir bisher mit anderen Verfahren erhalten haben. Die Kolmogorov-Entropie K1 die wir mit Gleichung (5) aus den positiven Lyapunov-Exponenten bestimmen, ist allerdings um etwa einen Faktor vier kleiner als Abschätzungen der Entropie K2, die sich aus Korrelationsbetrachtungen in vorangegangenen Untersuchungen ergeben haben. Durch die Untersuchungen zu lokalisierten Lyapunov-Exponenten erhalten wir eine detailliertere Beschreibung der BSN-Dynamik im rekonstruierten Ersatz-Phasenraum. Wir erkennen an verschiedenen Beispielen, daß die Attraktoren von BSN-Zuständen entlang der RTN-Route durch mindestens einen markanten Bereich mit großen positiven lokalisierten Lyapunov-Exponeten ausgezeichnet sind. Bezüglich der Variation der Attraktoren entlang der RTN-Route beobachten wir, wie sich bevorzugt diese Bereiche in ihrer Form verändern. Die chaotischen Zustände sind durch eine Attraktorregion ausgezeichnet, die einen sichtbar größeren lokalisierten Lyapunov-Exponenten besitzt, als die restlichen Gebiete. Wir führen diese Beobachtung auf das lokale Aufbrechen eines 2-Frequenz-Torus zurück und können diese Vermutung durch Untersuchungen zu einem chaotischen Zustand aus der RTN-Route belegen. Die Simulationsergebnisse zur BSN-Modellgleichung zeigen, daß die Gleichung innerhalb der untersuchten Parameterbereiche kein chaotisches Verhalten generiert. Die aus experimentellen Daten angepaßten Parametervektoren ->k deuten darauf hin, daß die Lösungen periodische Inseln in einer Fixpunktlandschaft darstellen. Mit den entwickelten Methoden zur Bestimmung von Lyapunov-Exponenten aus Delay-Differentialgleichungen stellen wir die Grundlage bereit, um zukünftige Untersuchungen an gekoppelten Modellgleichungen durchführen zu können.
Die Anfänge der Gittertheorie reichen in das letzte Jahrhundert, wobei die wohl bekanntesten Ergebnisse auf Gauß, Hermite und Minkowski zurückgehen. Die Arbeiten sind jedoch zumeist in der Schreibweise der quadratischen Formen verfaßt, erst in den letzten Jahrzehnten hat sich die von uns verwendete Gitterschreibweise durchgesetzt. Diese ist zum einen geometrisch anschaulicher, zum anderen wurden in den letzten Jahren für diese Schreibweise effiziente Algorithmen entwickelt, so daß Probleme der Gittertheorie mittels Computer gelöst werden können. Ein wichtiges Problem ist, in einem Gitter einen kürzesten nicht verschwindenden Vektor zu bestimmen. Den Grundstein für diese algorithmische Entwicklung legten A.K. Lenstra, H.W. Lenstra Jr. und L. Lovasz mit ihrer Arbeit. In dieser führten sie einen Reduktionsbegriff ein, der durch einen Polynomialzeitalgorithmus erreicht werden kann. Ein weiterer Reduktionsbegriff, die Blockreduktion, geht auf Schnorr zurück. Euchner hat im Rahmen seiner Diplomarbeit effiziente Algorithmen für diese beiden Reduktionsbegriffe auf Workstations implementiert und auch in Dimensionen > 100 erfolgreich getestet. Die Verbesserungen von Schnittechniken des in der Blockreduktion verwendeten Aufzählungsverfahrens und die Einführung einer geschnittenen Aufzählung über die gesamte Gitterbasis hat Hörner in seiner Diplomarbeit beschrieben. Ziel der folgenden Arbeit war es nun, diese bereits auf sequentiellen Computern implementierten Algorithmen zu modifizieren, um auf parallelen Rechnern, speziell Vektorrechnern, einen möglichst hohen Geschwindigkeitsgewinn zu erzielen. Wie in den seriellen Algorithmen werden die Basisvektoren stets in exakter Darstellung mitgeführt, so daß das Endergebnis einer Berechnung nicht durch Rundungsfehler verfälscht wird.
Da die zu untersuchenden physikalischen Observablen des NA49-Exprimentsentscheidend von der Leistungsfähigkeit der Detektoren beeinflußt werden, ist es notwendig, deren Funktion systematisch zu untersuchen und zu überwachen. Im Rahmen dieser Arbeit wurden Methoden vorgestellt, die Genauigkeit der Spurrekonstruktion zuquantifizieren und gegebenenfalls durch die Korrektur systematischer Fehler zu verbessern. Das NA49-Lasersystem hat während dieser Strahlzeit seine Funktionalität bewiesen. Trotz erheblicher technischer Schwierigkeiten hat die Analyse der Laserdaten Resultate geliefert, die entscheidend zum Verständnis der Funktion der Detektoren beigetragen haben. Der Ausbau des NA49-Lasersystems zu einem vollständigen System, das die in der ursprünglichen Konzeption festgelegten Spezifikationen erfüllt, hat sich damit als möglich und wünschenswert erwiesen. Die Untersuchung von Ereignissen ohne Magnetfeld ist ein sehr exaktes Meßinstrument zur Rekonstruktion der Position der Detektorkomponenten. Der Vorteil gegenüber traditionellen Methoden ist, da der Prozeß der Ortsmessung die vollständige Analysekette des Experiments beinhaltet. Damit können nicht nur räumliche Effekte untersucht werden, sondern auch Fehlfunktionen der Ausleseelektronik und der Analysesoftware. Die mit dieser Methode gefundene scheinbare Verschiebung der Detektorhälften relativ zueinander um ca. 4mm ist konsistent mit Ergebnissen anderer Analysemethoden (z.B. der Laseranalyse). Die Ursache dieser Verschiebung konnte bis zur Fertigstellung dieser Arbeit noch nicht lokalisiert werden. Um eine endgültige Klärung dieses Problems sicherzustellen, müssen Spuren in dem Detektor erzeugt werden deren Position besser bekannt ist als die intrinsische Ortsauflösung des Detektors. Das NA49-Lasersystem sollte in der vollständigen Ausbaustufe in der Lage sein, diese Aufgabe zu erfüllen.
Abschließend sollen hier die wichtigsten, neuen Ergebnisse herausgestellt und ein Ausblick auf mögliche zukünftige Studien gegeben werden. In dieser Arbeit wurden vorwiegend Schwerionenkollisionen bei Einschußenergien zwischen ungefähr 40 MeV/Nukleon und 400 MeV/Nukleon mit dem Quantenmolekulardynamik-Modell untersucht. Ein Schwerpunkt war hierbei die Beschreibung der Umkehr des kollektiven, transversalen Seitwärtsflusses in der Reaktionsebene. Der negative Seitwärtsfluß, der bei niedrigen Energien der Größenordnung kleiner als 100 MeV/Nukleon durch die attraktiven Wechselwirkungen verursacht wird, verschwindet bei Steigerung der Einschußenergie bei der Balance-Energie E-bal. einsetzt. Oberhalb dieser dominieren die repulsiven Wechselwirkungen, so daß positiver transversaler Fluß einsetzt. Sowohl die negativen Flußwinkel als auch der Übergang hin zu positiven Flußwinkeln konnte fur eine große Anzahl verschiedener Energien und Stoßparameter mit unterschiedlichen Zustandsgleichungen für die Systeme 40-20-Ca + 40-20-Ca und 197-79 Au + 197-79 Au mit dem Quantenmolekulardynamik-Modell beschrieben werden. Ziel muß es bleiben, die verschiedenen, grundlegenden physikalischenWechselwirkungen eindeutig und unabhängig voneinander zu bestimmen. Ein erfolgversprechender Weg sind die hier vorgestellten Methoden und die Hinweise zur ad quaten Interpretation experimenteller Ergebnisse. Die Abhängigkeit der Balance-Energien von der Masse des betrachteten Systems ist sehr sensitiv auf den Nukleon-Nukleon Wirkungsquerschnitt im Medium. Hier wurde systematisch gezeigt, daß die Balance-Energien stark vom Stoßparameter abhängen. Die Zunahme der Balance-Energie mit dem Stoßparameter ist ungefähr linear. Für das System Ca+Ca kann sich die Balance-Energie beim Übergang von zentraleren zu mittleren Stoßparametern mehr als verdoppeln. Daher ist für die Interpretation der gemessenen Balance-Energien in bezug auf eine Modifikation des nukleo- nischen Wirkungsquerschnitts im Medium oder der Zustandsgleichung eine genaue Kenntnis des Stoßparameters von größter Wichtigkeit. Vorläufige experimentelle Analysen scheinen die vorhergesagte Stoßparameterabhängigkeit sehr gut zu bestätigen [Wes 95]. Weiterhin hat sich herauskristallisiert, daß bei der Berücksichtigung impulsabhängiger Wechselwirkungen die Balance-Energien bei größeren Stoßparametern signifikant kleiner sind als für den Fall der Nichtberücksichtung. Daher konnten experimentelle Bestimmungen der Balance- Energien bei größeren Stoßparametern signifikante Hinweise auf die tatsächliche Bedeutung der impulsabhängigen Wechselwirkungen in diesem Energiebereich geben. Es wurde gezeigt, daß für schwere Systeme wie Au+Au die langreichweitige internukleare Coulomb-Wechselwirkung vor dem Kontakt der Kerne im Energiebereich der Balance-Energien nicht vernachlässigt werden darf. Die hervorgerufene Repulsion bewirkt eine Drehung des Systems. Während in diesem gedrehten System dynamischer negativer Fluß beobachtbar ist, ist er es nicht im Laborsystem. Die im gedrehten Kontaktbezugssystem bestimmten Balance- Energien fur Au+Au sind erwartungsgemäß kleiner als für Ca+Ca und nehmen mit wachsendem Stoßparameter zu. Ein neuartiger Zwei-Komponenten-Fluß konnte in semiperipheren Kollisionen von Ca+Ca be- schrieben und analysiert werden. Dabei wird in einem Ereignis in verschiedenen Rapiditätsbereichen gleichzeitig positiver und negativer transversaler Fluß möglich. Die wenig komprimierte Spektatorenmaterie, die vermehrt aus schwereren Fragmenten besteht, zeigt negativen Fluß bei großen Rapiditäten, wohingegen dieKompressionszone in Form von einzelnen Nukleonen positiven transversalen Fluß zeigt. Aufgrund der großen Sensitivität gegenüber den Systemparametern und der Zustandsgleichung lohnt es sich, diesen Effekt experimentell zu untersuchen. Beim Studium azimuthaler Verteilungen wurde deutlich, daß auch in den Balance-Punkten noch kollektiver Fluß in Form von azimuthaler Asymmetrie vorliegt. Im Gegensatz zur bekannten hochenergetischen Bevorzugung der Emissionswinkel senkrecht zur Reaktionsebene für Teilchen aus der Wechselwirkungszone wurde hier die bei kleineren Energien preferentielle Emission in die Reaktionsebene aufgezeigt. Diese nimmt mit der Teilchenmasse und dem Stoßparameter zu. Das systematische Studium der Anregungsfunktion dieser azimuthalen Asymmetrie könnte durch die Übergangsenergien, die durch den Wechsel von der preferentiellen Emission in die Reaktionsebene zu der Bevorzugung der Winkel senkrecht zur Reaktionsebene definiert sind, wertvolle, ergänzende Information zu den Balance-Energien liefern.
Diese Arbeit entstand im Rahmen des Schwerionenexperiments NA49 am CERN. Auf der Suche nach einem neuen Zustand von Kernmaterie, dem Quark-Gluon-Plasma, werden dort im SPS (Super-Proton-Syncrhotron Bleiionen auf eine Energie von 158 GeV pro Nukleon beschleunigt und dann auf eine dünne, im Laborsystem ruhende, Bleifolie (Target) gelenkt. Ziel ist es, in zentralen Stößen zweier Bleikerne ein ausgedehntes Volumen hochkomprimierter und heißer stark wechselwirkender Materie zu erzeugen. Kernmaterie im Grundzustand besitzt eine Dichte von rho o ~ 0,14 Nukleonen pro Kubikfermi. Damit ergibt sich mit der Masse der Nukleonen von etwa 939 MeV/c exp 2 eine Energiedichte im Grundzustand von 130 MeV/fm exp 3. Theoretische Überlegungen im Rahmen der Quantenchromodynamik (QCD, die Eichtheorie der starken Wechselwirkung) sagen voraus, daß sich bei einer Energiedichte von etwa 2-3 GeV/fm exp3 und einer Packungsdichte der hadronischen Materie von 10-15 rho 0 die normalerweise in den Hadronen eingeschlossenen Quarks aus ihren Bindungen lösen. Aufgrund dieses als deconfinement bezeichneten Vorgangs könnte ein Plasma aus freien Quarks und Gluonen entstehen. Die letzteren sind die Eichbosonen der starken Wechselwirkung. Ein solcher Zustand hat einige Mikrosekunden nach dem Urknall exisitiert und wird heute im Innern von Neutronensternen vermutet. Die Lebensdauer dieses hochkomprimierten und heißen Zustands während einer Schwerionenkollision ist mit T * 10 exp -23zu kurz, um direkt beobachtet werden zu können. Daher versucht man, aus den hadronischen Reaktionsprodukten Rückschlüsse auf diesen Zustand zu ziehen. Wichtige Meßgrößen sind die Rapidität y und der Transversalimpuls pT der Teilchen nach der Reaktion. Die Rapidität ist ein Maß für die longitudinale Geschwindigkeit der Teilchen entlang der Strahlrichtung. Aus der Rapiditätsverteilung nach dem Stoß kann man bestimmen, wie stark die Projektilnukleonen abgebremst wurden und wieviel Energie somit in der Reaktionszone deponiert wurde. Ein Großteil dieser Energie wird zur Produktion von Hadronen benutzt. Die Transversalimpulsverteilung dieser Teilchen ähnelt der einer thermischen Verteilung. Damit kann im Rahmen von thermodynamischen Modellen der Reaktionszone (Feuerball) eine Temperatur zugeschrieben werden. Durch Messung von Zwei-Pion-Korrelationen kann auf die Größe des Reaktionsvolumens zum Zeitpunkt der Entkopplung der Hadronen von der Reaktion geschlossen werden. Sowohl die Multiplizität der Hadronen als auch ihre "chemische" Zusammensetzung (z.B. Pion, Kaon oder Lambda) liefern wichtige Randbedingungen für Modellvorstellungen über die Dynamik einer Schwerionenkollision. Dazu ist es notwendig, nicht nur die Anzahl der Hadronen pro Ereignis zu messen, sondern auch diese Teilchen zu identifizieren.
Eine nichtgeometrische Konstruktion der Spektren P(n) und multiplikative Automorphismen von K(n)
(1995)
Ziel dieser Arbeit war es, ein sicheres und trotzdem effizientes Preprocessing zu finden. Nach den zurückliegenden Untersuchungen können wir annehmen, dies erreicht zu haben. Wir haben gezeigt, daß eine minimale Workload von Attacken von 272 mit nur 16 Multiplikationen pro Runde und 13 gespeicherten Paaren (ri, xi) erreicht werden kann. Mit der in Abschnitt 12.3 erklärten Variation - der Wert rº k geht nicht in die Gleichungen mit ein - erreichen wir sogar eine Sicherheit von 274. In diesem Fall können wir die Anzahl der gespeicherten Paare auf 12 verringern. Auch von der in Abschnit 12.5 besprochenen Variation erwarten wir eine Erhöhung der Sicherheit. Ergebnisse dazu werden bald vorliegen. Folgender Preprocessing Algorithmus erscheint z.B. nach unserem derzeitigen Wissensstand geeignet: Setze k = 12, l0 = 7, l1 = 3, d0 = 4, d1 = 5, h = 4, ¯h = 1. Initiation: lade k Paare (r0 0, x00 ) . . . , (r0 k 1, x0 k 1) mit x0i = ®r0 i mod p. º := 1. º ist die Rundennummer 1. Wähle l1 2 verschiedene Zufallszahlen a(3, º), . . . , a(l1, º) 2 {º + 1 mod k, . . . , º 2 mod k} a(1, º) := º mod k, a(2, º) := º 1 mod k W¨ahle l1 2 verschiedene Zufallszahlen f(3, º), . . . , f(l1, º) 2 {0, . . . , d1 1}, f(1, º) zuf¨allig aus {h, . . . , d1 1} und f(2, º) zuf¨allig aus {¯h, . . . , d1 1} rº k := rº ºmodk + l1 Xi=1 2f(i,º)rº 1 a(i,º) mod q xk = xºº modk · l1 Yi=1 (xº 1 a(i,º))2f(i,º) mod p 2. w¨ahle l0 1 verschiedene Zufallszahlen b(2, º), . . . , b(l0, º) 2 {º + 1 mod k, . . . , º 1 mod k} b(1, º) := º mod k W¨ahle l0 verschiedene Zufallszahlen g(1, º), . . . , g(l0, º) 2 {0, . . . , d0 1} rº ºmodk := l0 Xi=1 2g(i,º)rº 1 b(i,º) mod q xºº modk = l0 Yi=1 (xº 1 b(i,º))2g(i,º) mod p 3. verwende (rº k, xº k) f¨ur die º te Signatur (eº, yº) gem¨aß yº = rº k + seº mod q 4. º := º + 1 GOTO 1. f¨ur die n¨achste Signatur Die Zufallszahlen a(3, º), . . . , a(l, º), b(2, º), . . . , b(l, º), f(1, º), . . . , f(l, º) und g(1, º), . . . , g(l, º) werden unabhängig gewählt. Dies ist selbstverständlich nur ein Beispiel. Unsere Untersuchungen sind noch nicht abgeschlossen. Wir glauben aber nicht, daß feste Werte a(i, º) und b(i, º) ein effizientes Preprocessing definieren. Wir haben einige Variationen mit solchen weniger randomisierten Gleichungen studiert und immer effiziente Attacken gefunden.
Im Jahr 1993 schlug A. Shamir Protokolle zur Erstellung digitaler Unterschriften vor, die auf rationalen Funktionen kleinen Grades beruhen. D. Coppersmith, J. Stern und S. Vaudenay präsentierten die ersten Angriffe auf die Verfahren. Diese Angriffe können den geheimen Schlüssel nicht ermitteln. Für eine der von Shamir vorgeschlagenen Varianten zeigen wir, wie der geheime Schlüssel ermittelt werden kann. Das zweite Signaturschema von Shamir hängt von der Wahl einer algebraischen Basis ab. Eine besondere Bedeutung haben Basen, deren Elemente polynomiale Terme vom Grad 2 sind. Wir analysieren die Struktur der algebraischen Basen. Für den hervorgehobenen Spezialfall kann eine vollständige Klassifikation durchgeführt werden.
Nationalparke haben nicht nur den Zweck, Ökosysteme auf einer ausreichend großen Fläche sich selbst zu überlassen, damit sich ein ökologisches Gleichgewicht einstellen kann, sondern sie sind auch öffentlich zugänglich.
Umweltbildung in Nationalparken bezweckt, Kenntnisse über und Begeisterung für die Nationalparke zu vermitteln, so daß der Wert dieses Raumes erfaßt und Interesse an dessen Schutz geweckt wird. Ein Beitrag zur allgemeinen Umweltbildung wird geleistet, wenn der Besucher seine Erfahrungen im Nationalpark auf alle Lebensbereiche übertragen kann. Da nur die wenigsten Besucher personengebundene Umweltbildungsarbeit, die in Form von geführten Wanderungen in jedem deutschen Nationalpark angeboten wird, in Anspruch nehmen, ist eine geeignete Umweltbildung durch Öffentlichkeitsarbeit erforderlich.
Alle Nationalparke bieten Informationen über die naturräumlichen Gegebenheiten und über Beeinträchtigungen der Ökosysteme an. Umfang und Qualität der Ausstellungen, Printmedien, Informationstafeln in der Natur und audiovisueller Medien variieren beträchtlich. Informationsmedien sind nicht immer geeignet, auf das Erlebnis Natur vorzubereiten und umfassende Informationen zu vermitteln. In den meisten Informationshäusern wird "ein Stück Natur" in die Ausstellung geholt, die dort ausgiebig betrachtet oder angefaßt werden kann; Hören und Riechen spielen noch eine untergeordnete Rolle. Beeinträchtigungen der Ökosysteme (Müll, Giftstoffe, Tourismus) werden in allen Informationsmedien dargestellt, in den Ausstellungen z.T. sehr dramatisch. Es sollte keine "heile Welt" dargestellt werden; Ausstellungen sollten betroffen machen, gleichzeitig jedoch Begeisterung für die Natur wecken.
Lernen über die Natur in und mit der Natur stehen im Vordergrund der Bildungsarbeit und führten bereits zu Konzepten, diese Erfahrungen auch ohne Ranger-Begleitung sammeln zu können: Im Nationalpark Bayerischer Wald wurde 1995 ein Naturerlebnispfad fertiggestellt, der Vorgänge in Ökosystemen veranschaulicht (spielerisch) und Zusammenhänge bewußt macht (wissenschaftlich, ethisch), der als Konzept für zukünftige Umweltbildungsarbeit zu sehen ist. Geowissenschaftliche und kulturhistorische Themen sollten immer miteinbezogen werden, um den Nationalpark als Gesamtraum erfassen zu können.
Um möglichst viele Besucher zu erreichen, müssen alle erdenklichen Informationsmedien eingesetzt werden. Insgesamt ist dieses Angebot noch nicht groß genug; acht der zwölf deutschen Nationalparke wurden jedoch erst nach 1990 gegründet, sind also noch sehr jung.
Bildungsarbeit wird in deutschen Nationalparken überwiegend durch Umweltsponsoring ermöglicht und ebenfalls Wirtschaftsunternehmen rücken die Nationalparke durch Printmedien u.ä. ins öffentliche Bewußtsein. Weder eines der Bundesministerien noch ein übergeordneter Fremdenverkehrsverband informiert zu allen deutschen Nationalparken. Verkehrsverbände der Nationalpark-Gemeinden erwähnen Nationalparke als Möglichkeiten zur Erholung allenfalls als "Touristische Attraktion" oder "Weitere Angebote".
Deutsche Nationalparke werden auf der gleichen gesetzlichen Grundlage wie Naturschutzgebiete geschützt. Naturschutz ist Ländersache, die Länder übertragen die Zuständigkeit z.T. an die Nationalparkverwaltungen. Die zwölf deutschen Schutzgebiete von nationaler Bedeutung in acht verschiedenen Bundesländern weichen in ihrem Schutzzweck und in ihrer Öffentlichkeitsarbeit voneinander ab. Besonders ungünstig wirkt sich dies bei der Besucherlenkung aus, zumal eine zu geringe Anzahl Mitarbeiter in den fremdenverkehrsbelasteten Nationalparken zur Verfügung steht.
Die ersten Schritte zur einheitlichen Darstellung und einheitlichen Besucherlenkung wurden von der FÖNAD unternommen. Sie gab die Entwicklung eines Besucherleit- und Informationssystems, eines Nationalpark-Logos und ein Konzept für einheitlich gestaltete Faltblätter (Corporate Design) in Auftrag; die Ergebnisse der Aufträge sollen die deutschen Nationalparke als einheitlich zu schützende Gebiete darstellen und Besuchern die Orientierung und das umweltverträgliche Verhalten erleichtern. Das Besucherleitsystem ist bereits in vier Nationalparken installiert. Diese Konzepte sind jedoch nur Richtlinien, die für die Nationalparkverwaltungen nicht verbindlich sind.
Aus den Antworten auf einen Fragebogen über Interpretive Services in ausgewählten Ländern ließ sich ersehen, daß die Nationalparke in etwa der Hälfte der antwortenden Staaten (n=27) dezentral organisiert sind, sich aber doch jeweils eine übergeordnete Behörde um die Darstellung des nationalen Naturerbes bemüht. National Park Services sind in den meisten Fällen nur für das Corporate Design zuständig, d.h. sie geben Vorgaben an die Nationalparkverwaltungen, die Medien dann um die räumlich spezifischen Informationen ergänzen. Nur in den Vereinigten Staaten ist der National Park Service für sämtliche Informationsmedien der mehr als 350 Gebiete nationaler Bedeutung zuständig.
Band 2 enthält eine Nationalpark-Bibliographie mit 2224 Literaturstellen (Stand: 4.11.1995).
Im Rahmen der vorliegenden Arbeit wurde ein Spracherkennungssystem realisiert, das sowohl phonembasierte als auch wortbasierte Modelle zur sprecherunabhängigen Schlüsselworterkennung im Kontext fließender Sprache verwenden kann. Das System erlaubt dabei die Wahl zwischen zwei grundlegend verschiedenen Verfahren: Entweder kann die Bewertung von Äußerungen durch Schlüsselwortmodelle mit gewählten Schwellenwerten verglichen werden, wobei eine Schwellenwertüberschreitung die Erkennung eines Schlüsselwortes signalisiert, oder es werden beliebige Phonemfolgen als Füllmodelle verwendet, die mit den Schlüsselwortmodellen konkurrieren. Der Schlüsselworterkenner kann sowohl zur 1-Schlüsselwort- Erkennung, bei der vorausgesetzt wird, dass sich in jeder Äußerung exakt ein Schlüsselwort befindet, als auch zur n-Schlüsselwort-Erkennung verwendet werden, bei der sich eine beliebige Anzahl Schlüsselwörter in jeder Äußerung befinden kann. Durch eine effiziente Implementation wurde die Fähigkeit zur Echtzeitverarbeitung auf verfügbaren Arbeitsplatzrechnern erreicht.....
In einer Evaluation unterschiedlicher Auswahl- und Ausbildungskonzepte der gewerblichen Berufsgenossenschaften (BGen) wurden die Hypothesen geprüft, daß durch Testverfahren auswählende BGen bessere Ausbildungsleistungen erzielen als nur durch Interview auswählende, praxisorientierte Ausbildungen zu schlechteren Prüfungsleistungen führen, zwischen der Ausbildungsleistung und dem Leistungsdruck sowie der Einstellung zur Arbeit ein Zusammenhang besteht und diese Variablen sich daher zur Erhöhung des varianzaufklärenden Werts des zweifach gestuften Faktors Selektion eignen. Für die Wirkung des Faktors Selektion wurde die Praxisorientierung als Moderatorvariable vermutet. Es gelang, 75% aller BGen zu erfassen. Als unabhängige Variable wurde in einem ex-post-facto Design der Faktor Selektion auf den Stufen Interview und Test aufgefaßt. In einem einfaktoriellen univariaten kovarianzanalytischen Modell dienten Leistungsdruck, Einstellung zur Arbeit und Praxisorientierung als Kovariaten. Für jede BG ist die Selektionsmethode und die Praxis der Interviewführung durch schriftliche bzw. telefonische Befragung ermittelt worden. Der Ausbildungserfolg wurde durch die Auswertung eines zentralen Notenarchivs erhoben. Durch einen Fragebogen an die 1994/95 geprüften Personen wurden Leistungsdruck, Praxisorientierung und Einstellung zur Arbeit als Kennwerte für die BG erfaßt. Testverfahren und Interview als Stufen des Faktors Selektion eigneten sich nicht zur Vorhersage des Ausbildungserfolgs. Bei den BGen, die durch Test auswählten, wurde eine deutlich größere Variabilität der Noten nachgewiesen als bei den interviewenden BGen. Eine praxisorientierte Ausbildung ging mit schlechten Prüfungsnoten einher (r = -.13). Es bestand keine Wechselwirkung zwischen Praxisorientierung und Auswahlmethode. Die Aufklärung der Notenvarianz durch die Auswahlmethode konnte durch die Kovariaten nur von 2% auf 3% erhöht werden. Mit Einstellung zur Arbeit und Praxisorientierung als Kovariaten konnten insgesamt 17% Varianz aufgeklärt werden. Die Qualität der Messung der Variablen, Gründe für die große Variabilität der Noten unter der Testbedingung sowie die Frage nach der Relevanz der Befunde zur Praxisorientierung der Ausbildung wurden diskutiert.
Im Rahmen dieser Arbeit wurde ein Prototyp einer Spurendriftkammer mit Mikrostreifenauslese, wie sie als hochauflösende Spurendetektoren in der Kern- und Teilchenphysik zum Einsatz kommen sollen, konstruiert und getestet. Besonderes Augenmerk lag hierbei auf der Signalform und -verteilung, sowie auf dem Langzeitverhalten. Für die verschiedenen Messungen dieser Arbeit wurden die Mikrostreifen-Gasdetektoren in ein Edelstahlrohr eingebaut, das mit einem Vakuumpumpen-System verbunden ist. Durch Evakuieren der Meßapparatur und anschließendes Befüllen mit Zählgas konnten die Detektoren nach kurzer Zeit mit nur geringen Verunreinigungen des Zählgases durch Wasser und Sauerstoff betrieben werden. Als Substrat wurde das Glas S 8900 von Schott verwendet, dessen Leitfähigkeit von rho 1.1 * 10 exp 11 Omega cm durch Elektronenleitung erzeugt wird. Es wurden Mikrostreifen-Platten mit zwei verschiedenen Strukturen untersucht, die sich in der Form der Kathode voneinander unterscheiden. Die Mikrostreifen-Platten haben eine sensitive Fläche von 30 X 40 mm*mm die Breite der Anodenstreifen beträgt 8 mikrometer bei einem Abstand von 1 mm zwischen den Mittellinien von je zwei Anoden. Die Kathoden der Struktur ILL6c bestehen aus einem durchgehenden 400 mikrometer breiten Streifen. Die Kathoden der Struktur ILL6a sind in zwei 8 mikrometer breite Streifen unterteilt, wobei die Gesamtbreite der Kathoden beider Strukturen gleich ist. Die Kopplung des Anodensignals auf die rückseitigen Kathodensegmente (Pads) ist bei der Struktur ILL6a durch die geöffneten Kathoden im Vergleich zur Struktur ILL6c doppelt so groß (51.6% bei einer Glasdicke von 0.45 mm bzw. 31.3% bei 1 mm und 16.9% bei 2 mm. Mit einer gamma-Quelle 55-Fe wurden Untersuchungen von Alterungseffekten durchgeführt, in deren Verlauf an den Anoden eine Ladung von 46 mikroC/cm pro Tag aufgenommen wurde. Simultan wurde ein Draht-Proportionalzähler mit geringerer Rate zur Überwachung der Gasqualität betrieben und damit die Amplitude der Mikrostreifen-Gasdetektoren korrigiert. Die Mikrostreifen-Gasdetektoren konnten bis zu einer Ladung von 125 mikroC/cm in Ar/CH4 bzw. 200 mikroC/cm in Ar/CO2 (90:10) mit einer Energieauflösung von <= 25% (55Fe-Quelle, FWHM) und geringer Variation der Verstärkung betrieben werden. Zur Messung der Breite Theta0 der Kathoden-Ansprech-Funktion (Pad-Response-Funktion) dienten Elektronenspuren, die mit Hilfe einer stark kollimierten Beta-Quelle (90Sr) erzeugt wurden. Die Spuren wurden durch einen 50 cm langen Feldkäfig, der wie die Feldkäfige der NA49-Spurendriftkammern aus aluminisierten Mylarstreifen aufgebaut ist, zur Ausleseebene gedriftet. Auf der Rückseite der Mikrostreifen-Platten befinden sich 1 mm breite Pads mit einem Abstand von 0.5 mm in zwei verschiedenen Anordnungen (isoliert oder mit der Glasrückseite verbunden). Diese Messungen wurden mit verschiedenen Glasdicken durchgeführt: Glasdicke 0.45 mm: theta-0 = 0.51 - 0.94 mm, Glasdicke 1 mm: theta-0 = 0.91 - 1.1 mm, Glasdicke 2 mm: theta-0 = 1.4 mm. Im Rahmen dieser Arbeit konnte gezeigt werden, daß es mit Hilfe der Mikrostreifentechnologie möglich ist, Spurendriftkammern mit einer kleineren Breite theta 0 der Pad-Response-Funktion zu konstruieren, als es mit konventionellen Draht-Ausleseebenen großflächig machbar wäre. Dadurch kann insbesondere die Zweispurauflösung verbessert werden.
Mit dem Dileptonenspektrometer HADES (High Acceptance Di-Electron Spectrometer) sollen Dielektronen, die bei zentralen Au+Au-Kollisionen der Energie von bis zu 2 GeV/u entstehen, spektroskopiert werden. Zentrale Detektorkomponente ist ein Magnetspektrometer, bestehend aus einem toroidalem Magnetfeld und 24 Driftkammern, die zur Orts- und Impulsbestimmung durch Ablenkung im Magnetfeld verwendet werden. Hohe Raten minimal ionisierender Teilchen, eine Massenauflösung von 1% im Massenbereich von 800 (MeVc) exp -2 sowie eine sichere Signalerkennung und -zuordnung stellen höchste Anforderungen an das Spektrometer, insbesondere an die Driftkammern. Ziel dieser Arbeit ist das grundlegende Verständnis der Funktionsweise der Driftkammern, die bei HADES eingesetzt werden, dazu gehört: (a): das physikalische Verständnis der Funktionsweise, insbesondere - die genaue Kenntnis des Feldverlaufs innerhalb der Kammern, sowie die Eigenschaften des verwendeten Driftkammergases und - die Bestimmung des theoretisch maximal erreichbaren Ortsauflösungsvermögens der Driftkammern, (b): die technische Seite, die den Aufbau der Driftkammern untersucht. Dies ist besonders wichtig, da in den HADES-Simulationsrechnungen aufgrund der großen Anzahl individueller Drähte mit Folien äquivalenter Massen gerechnet wurde. Hilfsmittel zur Untersuchung dieser Fragestellungen waren einerseits Programme, die Monte-Carlo-Methoden verwenden, andererseits Experimente, die an einem Prototyp der HADES-Driftkammern durchgeführt wurden, wobei jedoch der Schwerpunkt dieser Arbeit auf den Simulationrechnungen liegt. Kapitel 1 gibt einen Überblick über die physikalische Motivation von HADES und beschreibt kurz die einzelnen Komponenten des Spektrometers und die Driftkammerphysik. Kapitel 2 geht auf den Aufbau der HADES-Driftkammern ein und stellt die mit Hilfe von Simulationsrechnungen gewonnenen Erkenntnisse über die Kammern vor. Kapitel 3 behandelt die Bestimmung der intrinsischen Auflöosung der Prototyp-Driftkammer. Da dies allein mit Hilfe von Quellenmessungen aufgrund der Vielfachstreuung nicht möglich ist, wurde der Anteil an Vielfachstreuung mit Simulationsrechnungen bestimmt. Kapitel 4 vergleicht die Erkenntnisse über das Verhalten der Driftkammern, die in Kapitel 2 gewonnen wurden, mit einem am SIS (Schwerionen-Synchrotron) gemachten Experiment. Abschließend wird das Modell einer Driftkammer mit realen Drähten mit dem Modell einer Driftkammer verglichen, in der die Drähte durch Folien äquivalenter Massenbelegung ersetzt wurden.
Untersuchungen des elektrischen und magnetischen Feldes in den NA49-TPCs mit Hilfe von Laserspuren
(1997)
Das Experiment NA49 am Europäischen Zentrum für Teilchenphysik (CERN) in Genf dient der Erforschung von relativistischen Schwerionenkollisionen. Dieses Feld der Kernphysik hatte seine Anfänge erst in den 70er Jahren am BEVALAC in Berkeley und untersucht zur Zeit Schwerionenstöße von einigen hundert MeV/Nukleon bis 200 GeV/Nukleon. Nach den heuteüblichen Experimenten mit festem Target sollen in der Zukunft Colliderexperimente mit Schwerionen neue Energiebereiche erschließen. Während die Experimente dadurch erleichtert werden, daß sie zumeist auf bestehende Beschleunigeranlagen aus der Hochenergiephysik zurückgreifen können, ist die theoretische Beschreibung relativistischer Schwerionenstöße ausgesprochen problematisch. Vom Verständnis dieser Reaktionsmechanismen erhoff t man sich aber einen Zugang zur starken Wechselwirkung bei niedrigen Impulsüberträgen, insbesondere in ausgedehnten Systemen.
Mit zunehmender Automatisierung - sowohl der industriellen Herstellungsverfahren, als auch ihrer Produkte - hat die Regelungstechnik stark an Bedeutung gewonnen. Das Prinzip der Regelung jedoch ist schon lange bekannt. Erste Anwendungen finden sich bereits in der Antike (230 v.Chr. Philon von Byzanz, Schwimmerregelung für Öllampen). Das wohl prominenteste Beispiel ist der Drehzahlregler für Dampfmaschinen, den James Watt 1788 konstruierte. Eine Theorie des Regelkreises wurde dagegen erst Ende des letzten Jahrhunderts entwickelt. Damit war der Weg für den verbreiteten Einsatz von Regelungstechnik geebnet. Aber ihre Bedeutung geht über die rein technischen Prozesse hinaus, indem sich die Theorie der Regelkreise auch zur Untersuchung nichttechnischer zum Beispiel biologischer oder gesellschaftlicher Prozesse anwenden läßt. Viele dieser Prozesse laufen nach dem Prinzip der Regelung ab, denn sie werden auch bei Wirkung äußerer Störungen aufrechterhalten. In diesen Bereichen wird allgemeiner von Kybernetik gesprochen [Steinbuch]. Im ersten Teil der vorliegenden Arbeit wird eine Einführung in die Regelungstechnik gegeben. Daran schließen sich im zweiten Teil Untersuchungen zur Magnetschwebekugel an. Diese theoretischen Betrachtungen sollen als Grundlage für den Aufbau eines Experiments zur Magnetschwebekugel dienen, das im Rahmen des Physikalischen Praktikums für Fortgeschrittene des Instituts für Angewandte Physik an der Universität Frankfurt geplant ist. Anhand einer von einem Elektromagneten in der Schwebe gehaltenen Kugel werden sich die Teilnehmer und Teilnehmerinnen mit den Prinzipien der Regelungstechnik vertraut machen können. Dieser Versuch ist in zweierlei Hinsicht interessant. Das System Elektromagnet - Kugel ist ohne Regelung nicht stabil, das heißt die Kugel kann nicht an einem beliebigen Ort unterhalb des Magneten fixiert werden. Dies entspricht auch der Erfahrung. Um so erstaunlicher ist es, wenn der Versuch zu einer Stabilisierung führt. Die verwendeten Methoden entstammen vollständig der Theorie der linearen Regelungen, sodaß der Versuch als elementare Einführung in die Regelungstechnik verstanden werden kann.
Seit Mitte der 60er Jahre diesen Jahrhunderts hat sich in Europa und Nordamerika vor allem unter Jugendlichen und jungen Erwachsenen der Konsum von gesetzlich verbotenen Substanzen ausgebreitet. Ungefähr gleichzeitig setzte sowohl in den Massenmedien als auch in professionellen Kreisen eine heftige Diskussion über dieses Phänomen ein, die bis heute andauert, was nicht nur auf die fraglos nach wie vor aktuelle Problematik von Sucht bzw. Abhängigkeit insbesondere bezüglich Heroin, sondern auch auf die ständigen Veränderungen in den Konsumentenszenen wie auch die vielfältigen Aktivitäten im Bereich der Drogenpolitik zurückzuführen ist. Diese erhielt auch stets Nahrung von der wissenschaftlichen Diskussion, die sich seit Mitte der 80er Jahre vereinzelt auch mit "Nicht-Junkie-" Kreisen beschäftigt, welche den Konsum von Cannabis, Kokain, Designer-Drogen, Halluzinogenen und teilweise auch Heroin in einen "normalen" Alltag integriert haben, wobei bezüglich Deutschland meines Wissens noch keine umfangreicheren qualitativen Studien für diesen Bereich existieren. Dabei ist von Bedeutung, daß nach Schätzungen, teilweise aus quantitativen Erhebungen abgeleitet (großangelegte repräsentative Umfragen liegen nicht vor und könnten allein schon wegen der Illegalität keine seriösen Ergebnisse liefern), bei den meisten, wenn nicht gar bei allen genannten "Szene-Drogen" die überwiegende Mehrheit der Konsumenten (auch der Gewohnheitskonsumenten), zu diesen "integrierten" oder auch "kontrollierten" Gebrauchern zu zählen ist. Diese Vermutung steht im Gegensatz zur lange Jahre von den Vertretern der offiziellen Drogenpolitik und dem Großteil der Medien verbreiteten Meinung, daß jeglicher Konsum der durch das Betäubungsmittelgesetz illegalisierten Substanzen zu Sucht und sozialer Verelendung führe. Weiterhin werden die Verbote für bestimmte Substanzen oft so begründet, daß diese Drogen "kulturfremd" seien und deshalb keine historisch gewachsenen, konsumregulierenden Sitten und Gebräuche bezüglich des Konsums existieren wie z.B. bei Alkohol, Tabak und Kaffee. Daher ist es natürlich interessant zu erfahren, welcher Art die Mechanismen sind, die, der obigen Auffassung widersprechend, ein alltagsintegriertes Konsumverhalten auch bei illegalen Drogen ermöglichen, bzw. inwiefern sie den Kontrollmustern für die legalen Drogen ähnlich sind. Dabei muß selbstverständlich stets hervorgehoben werden, welche Drogen konsumiert werden, da einerseits zwar alle diese Substanzen den illegalen Status mit den entsprechenden alltagspraktischen Konsequenzen gemeinsam haben, aber doch erhebliche Unterschiede existieren in der jeweiligen Wirkungsweise und -intensität (pharmakologisch wie subjektiv), der Gefahr von Überdosierung und körperlichen oder geistigen Schädigungen sowie subkulturellen Zuschreibungen und Einbindungen. Für diese Arbeit habe ich qualitative Interviews mit dreizehn Personen durchgeführt, die allesamt mit mehreren verschiedenen illegalen Drogen Erfahrungen vorweisen können, wobei allerdings zum Teil deutliche Unterschiede bezüglich der Konsumfrequenzen, -mengen und vor allem auch der präferierten Drogen vorliegen. Dabei werde ich, unter Einbeziehung des Konzeptes von drug, set and setting, einerseits Beispiele für die Verschiedenheit von möglichen Konsummustern aufzeigen, gleichzeitig aber versuchen, gerade in bezug auf Funktionen und informelle Kontrollen des Konsums unterschiedlicher Drogen, Gemeinsamkeiten aufzuzeigen.
Untersuchungen von evolutionären Algorithmen zum Training neuronaler Netze in der Sprachverarbeitung
(1997)
Im Rahmen der vorliegenden Diplomarbeit wurde die Leistungsfähigkeit von evolutionären Algorithmen zum Training von RNN untersucht und mit gradientenbasierten Trainingsalgorithmen verglichen. Die Zielsetzung war dabei im besonderen die Prüfung der Verwendbarkeit in der Sprachverarbeitung, speziell der Spracherkennung. Zunächst wurde anhand eines Prädiktionsproblems die prinzipielle Leistungsfähigkeit von EA untersucht, indem ein MLP mit unterschiedlichen evolutionären Algorithmen trainiert wurde. Verschiedene Varianten von GA und ES sind an diesem Beispiel getestet und miteinander verglichen worden. Im Rahmen der Untersuchungen an GA stellte sich heraus, daß eine Mindestgenauigkeit der Quantisierung zur Lösung erforderlich ist. Es zeigt sich, daß die Genauigkeit der Approximation mit abnehmendem Quantisierungsfehler besser wird. Damit ist eine Behandlung dieses Problems mit grob quantisierten Gewichten nachteilig. Demgegenüber profitiert ES sowohl in der Approximationsgenauigkeit, als auch in der Konvergenzgeschwindigkeit von der direkten Darstellung der Objektvariablen als reelle Zahlen. Weiterhin zeigte sich bei ES, daß die Genauigkeit einer Lösung auch von der Populationsgröße abhängig ist, da mit wachsender Populationsgröße der Parameterraum besser abgetastet werden kann. Im Vergleich mit ES benötigten GA längere Konvergenzzeiten und bedingten zudem aufgrund der Codierung und Decodierung einen höheren Rechenaufwand als ES, so daß die Untersuchungen an RNN nur mit ES durchgeführt wurden. Zunächst wurde mit dem Latching-Problem eine, in der Komplexität eng begrenzte, Klassifikationsaufgabe mit Zeitabhängigkeiten untersucht. Die zur Verfügung gestellte Information war bei diesem Beispiel sehr gering, da der Fehler nur am Ende einer Mustersequenz berechnet wurde. Es stellte sich heraus, daß selbst bei dieser sehr einfachen Aufgabenstellung die gradientenbasierten Verfahren nach dem Überschreiten einer maximalen Mustersequenzlänge T keine Lösung finden konnten. Im Gegensatz dazu war ES in der Lage, das Problem für alle gemessenen Variationen des Parameters T zu lösen. Erst wenn während des Trainings dem Gradientenverfahren zusätzliche Informationen durch Fehlereinspeisung zur Verfügung gestellt wurde, hatte der BPTT-Algorithmus die selbe Leistungsfähigkeit. Als weiteres Experiment mit Zeitabhängigkeiten wurde das Automaton-Problem un- tersucht, welches mittels eines RNN gelöst werden sollte. Bei diesem Problem wurde besonderer Wert auf die Untersuchung des Konvergenzverhaltens bei Änderungen der Parameter von ES gelegt. Die Untersuchungen ergaben, daß die einzelnen Parameter in komplexer Weise miteinander interagieren und nur eine gute Abstimmung aller Parameter aufeinander eine befriedigende Leistung in Bezug auf Konvergenzgeschwindigkeit und Klassifikationsergebnis erbringt. Wie bei dem Latching-Problem wurde der Fehler nur am Ende einer Mustersequenz berechnet. Dies bewirkt, daß der BPTT-Algorithmus bereits bei Sequenzlängen von T = 27 nicht mehr in der Lage ist, die Zeitabhängigkeiten in dem Gradienten zu repräsentieren. Mit ES dagegen konnten RNN trainiert werden, die in der Lage sind, Sequenzlängen bis zu T = 41 richtig zu klassifizieren. Die Untersuchungen bestätigen, daß der beschränkende Faktor in erster Linie der Trainingsalgorithmus und nicht das Netzwerksparadigma ist. Die Simulationsexperimente mit zeitnormierten Sprachdaten zeigen, daß mit ES prinzipiell höhere Erkennungsleistungen als mit dem gradientenbasierten Algorithmus des BPTT erzielt werden können. Jedoch nimmt schon bei der Klassifikation der Zahlwörter Zwei und Drei die Klassifikationsleistung mit zunehmender Sequenzlänge ab. Es erfordert eine drastische Vergrößerung der Populationsgröße, um zumindest gleich gute Ergebnisse zu erzielen. Zusätzliche Tests am Automaton-Problem stützen diese Aussage. Jedoch steigt der Rechenaufwand durch Vergrößerung der Populationsgröße so stark an, daß bei nicht zeitnormierten Sprachdaten ES mit adäquater Populationsgröße nicht mehr simulierbar waren. In den Untersuchungen an dem Vokabular mit sechs Wörtern wurde der Fehler für jeden anliegenden Merkmalsvektor berechnet und im Gradienten bzw. zur Bewertung bei ES im Training verwendet. In diesen Messungen erbringen beide Algorithmen nahezu identische Klassifikationsergebnisse. Insgesamt verhindert der drastisch ansteigende Rechenaufwand bei den Sprachdaten die Verarbeitung von größeren Vokabularien und langen Wörtern durch ES. Aus der Beschränkung der Populationsgröße durch die vorhandene Rechnerkapazität resultierte eine nichtoptimale Anpassung von Selektionsdruck, Mutationsrate und Populationsverteilung im Suchraum. Insbesondere erweist sich die globale Anpassung der Strategieparameter bei den vergrößerten Populationen als problematisch. Weitere Untersuchungen an ES mit Strategien zur Selbstadaption dieser Parameter bieten sich daher für zukünftige Forschung an.
In der vorliegenden Diplomarbeit beschäftigen wir uns mit kryptographisch sicheren Pseudozufallsgeneratoren. Diese e±zienten Algorithmen erzeugen zu zufälliger Eingabe deterministisch eine längere Bitfolge, die praktisch von einer Folge zufälliger Münzwürfe nicht unterscheidbar ist. Wir geben die Definitionen von A. Yao sowie M. Blum und S. Micali, beweisen die Äquivalenz und charakterisieren den Unterschied zur klassischen Sichtweise von Zufallsgeneratoren. Mit der Blum-Micali-Konstruktion zeigen wir, wie man aus einer Oneway-Permutation und zugehörigem Hardcore-Prädikat einen kryptographisch sicheren Pseudozufallsgenerator konstruiert: Man wendet auf einen zufälligen Startwert iterativ die Oneway-Funktion an und gibt jeweils das Hardcore-Prädikat des Urbilds aus. Wir stellen das allgemeine Hardcore- Prädikat inneres Produkt modulo 2 von L.A. Levin und O. Goldreich vor und beweisen mit Hilfe des XOR-Lemmas von U.V. Vazirani und V.V. Vazirani die Verallgemeinerung zu einer Hardcore-Funktion, die statt eines Prädikats mehrere Bits ausgibt. Man geht davon aus, daß die Verschlüsselungsfunktionen des RSA- und des Rabin-Public- Key-Kryptosystems Oneway-Permutationen sind. Basierend auf dem Rabin-System haben L. Blum, M. Blum und M. Shub den x2-mod-N-Generator aufgebaut, W. Alexi, B. Chor, O. Goldreich und C.P. Schnorr haben den RSA-Generator konstruiert und den Sicherheitsbeweis zum x2-mod-N-Generator verbessert. Diese Generatoren basieren auf der Blum-Micali-Konstruktion mit dem Hardcore-Prädikat des untersten Bits. Durch neue Ideen können wir die beweisbare Sicherheit der Generatoren deutlich erhöhen, so daß in der Praxis kleinere Schlüssellängen genügen. Bisher war zum Beispiel für den x2-mod-N-Generator bekannt, daß man mit einem Algorithmus A, der das unterste Bit der Wurzel modulo einer n-Bit- Blumzahl mit Wahrscheinlichkeit 1 2 + ² in Zeit |A| = ¡n3¢ berechnet, den Modul in Zeit O¡n3² 9|A|¢ mit Wahrscheinlichkeit ²2 64 faktorisieren kann. Wir verbessern die Laufzeit zu O¡n² 4 log2(n² 1)|A|¢ und Wahrscheinlichkeit 1 9 . Diese neuen Resultate wurden auf der Eurocrypt-Konferenz im Mai 1997 in Konstanz vorgestellt, D.E. Knuth hat sie bereits in die neue Auflage seines Standardwerks The Art of Computer Programming aufgenommen.
Der Begriff der editierfreundlichen Kryptographie wurde von Mihir Bellare, Oded Goldreich und Shafi Goldwasser 1994 bzw. 1995 eingeführt. Mit einem editierfreundlicher Verschlüsselungs- oder Unterschriftenverfahren kann man aus einer Verschlüsselung bzw. Unterschrift zu einer Nachricht schnell eine Verschlüsselung oder Unterschrift zu einer ähnlichen Nachricht erstellen. Wir geben eine Übersicht über die bekannten editierfreundlichen Verfahren und entwickeln sowohl ein symmetrisches als auch ein asymmetrisches editierfreundliches Unterschriftenverfahren (IncXMACC und IncHSig). Wir zeigen, wie man mit editierfreundlichen Schemata überprüfen kann, ob die Implementierung einer Datenstruktur korrekt arbeitet. Basierend auf den Ideen der editierfreundlichen Kryptographie entwickeln wir effiziente Verfahren für spezielle Datenstrukturen. Diese Ergebnisse sind in zwei Arbeiten [F97a, F97b] zusammengefaßt worden.
Der Theorieteil befaßt sich mit den bisher vorliegenden Erkenntnissen über Lerntypen. Anregungen zu dieser Untersuchung kamen von den Neurophysiologen ECCELS J.C. und POSNER M.I.,von den Pädagogischen Psychologen WEIDENMANN B und GAAL J., von dem Pädagogen VESTER F. und dem Psychologen PAIVIO A., auf dessen Thesen von den drei Kodierungssystemen (1964) die Forschungsansätze zu diesem Thema beruhen. Darüber hinaus wurde der kommerzielle Hirndominanztest von HERMANN N. und einige Arbeiten von Vertretern des Neurolinguistischen Progammierens berücksichtigt.
Untersucht wurde die Auswirkungen der visuellen, auditiven und kinästhetischen Unterrichtsformen auf zwölf Jugendliche im Alter zwischen acht und zwölf Jahren. Im Anschluß an die Untersuchung wurde den Kindern ein Fragebogen vorgelegt, mit dessen Hilfe die präferierten Sinneskanäle erfaßt werden sollten. Dies schließt insofern eine Forschungslücke, als hier zum erstenmal die Modalitäten von Probanden festgestellt wurden. Dies befähigt zur Beantwortung der Frage: Wie unterrichte ich wen?
Die Kinder hatten am Jugendtraining des Licher Golfclubs teilgenommen und standen in den letzten drei Wochen der Saison 1996 für den Test zur Verfügung. Der Lernerfolg wurde ausschließlich durch einen Vergleich der Leistung vor und nach dem Unterricht ermittelt. Hierbei wurde beobachtet, daß jedes Kind eine bestimmte Reihenfolge von Lernmodalitäten bevorzugt. Ein für diese Situation entwickelter Fragebogen stimmte in 7 von 12 Fällen mit den Testergebnissen überein. Die Lernleistung kann bei Ansprache der präferierten Sinnesmodalitäten optimiert werden.
Die Ergebnisse haben gezeigt, daß Zusammenhänge zwischen der Instruktion präferierter Sinnesmodalitäten und der Lernleistung bestehen.
Der letzte Teil der Arbeit befaßt sich mit der praktischen Umsetzbarkeit der Ergebnisse und ihren möglichen Auswirkungen auf die Kommunikation.
Die in ultra-relativistischen Schwerionenkollisionen erreichten Dichten und Temperaturen führen möglicherweise zu einem Übergang der hochangeregten Kernmaterie in eine partonische Phase ohne Einschluß der Quarks und Gluonen. Dieser Zustand wird Quark-Gluon- Plasma genannt. Die Existenz dieses Plasmas vor einem Phasenübergang in ein Hadrongas versucht man in einer Reihe von Experimenten unter anderem an den Kernforschungszentren CERN in Genf/Schweiz und Brookhaven National Laboratory (BNL) auf Long Island/USA nachzuweisen. Aufgrund theoretischer Modelle wird erwartet, daß Signaturen eines solchen Zustandes das Verhältnis der Pion- zu Baryonen-Produktion und die Produktion von Teilchen, die Strange-Quarks enthalten, sein könnten. Nach diesen Signalen sucht man im hadronischen Endzustand des Systems. Das Fixed-Target-Experiment NA49 untersucht Blei-Blei Kollisionen bei einer Strahlenergie von 158 GeV/c pro Nukleon. Das Experiment zeichnet sich durch seine große Detektorakzeptanz für geladene Teilchen verbunden mit einer präzisen Impulsmessung aus. Ähnliche Merkmale weist auch das momentan im Aufbau befindliche Collider-Experiment STAR am BNL auf. Hier sollen ab 1999 Kollisionen von Gold Kernen bei Energien von 100 GeV/c pro Nukleon analysiert werden. Die hohe Akzeptanz und die gute Impulsbestimmung der produzierten Teilchen zeichnen die Experimente als hervorragende Meßinstrumente für den hadronischen Endzustand aus. Andere Observablen, von denen man sich Aufschluß über die Reaktionsdynamik einer ultra-relativistischen Schwerionenkollisionen erhofft, sind Vektormesonen, die kurz nach oder sogar noch im Reaktionsvolumen der Kollision in ein Lepton-Paar zerfallen. Der Vorteil hierbei ist, daß die Zerfallsteilchen (Elektronen oder Myonen) mit anderen Teilchen nur elektromagnetisch wechselwirken. Deswegen können sie ohne Wechselwirkung mit den umgebenden Hadronen die Reaktionszone verlassen. Die Wahrscheinlichkeit für den Zerfall in Leptonen ist allerdings 10 exp (-4) mal niedriger als für den in Hadronen. Im NA49-Experiment, das auf die Erfassung des hadronischen Endzustandes optimiert ist, ist es aufgrund des hohen Untergrundes an Hadronen nicht trivial, die Lepton-Paare aus dem Zerfall von Vektormesonen zu selektieren. Das Ziel dieser Arbeit bestand darin, zu untersuchen, wie gut eine Identifikation von Elektronen bzw. Positronen im NA-49-Experiment möglich ist. Es konnte die Effizienz der Selektion von Elektron-Positron-Paaren aus dem Zerfall von Phi-Mesonen abgeschätzt und die Kontamination der Lepton-Kandidaten durch Hadronen ermittelt werden. Danach wurde ein Signal zu Untergrund-Verhältnis für das Signal des Phi-Mesons im Invariante-Masse-Spektrum abgeschätzt. Aus den mit dem NA- Experiment gewonnenen Erkenntnissen konnten Vorschläge zur Optimierung der Messung von Lepton-Paaren aus Vektormesonen im zukünftigen STAR-Experiment gemacht werden.
Die Vorstellung, daß ein Quantensystem zu jedem Zeitpunkt einen bestimmten Zustand (aus einem "klassischen" Phasenraum) einnimmt, ist im Formalismus der Quantenmechanik nicht vorgesehen. Man kann eine solche Vorstellung zwar verträglich mit den Regeln der QM unterhalten, jedoch erweisen sich dann ganz verschiedene Wahrscheinlichkeitsverteilungen auf dem Phasenraum als experimentell ununterscheidbar; solche Modelle postulieren sozusagen die Existenz einer "verborgenenen Information" neben den prüfbaren Fakten. Es wird gezeigt, daß dies für alle Modelle gilt, die mit den von der QM für jede Observable vorhergesagten Wahrscheinlichkeitsverteilung im Einklang stehen, selbst wenn sie erlauben, daß nicht jede Verteilung auf dem Phasenraum durch makroskopische Aparaturen präpariert werden kann bzw. daß das Meßergebnis garnicht deterministisch vom Zustand des Quantensystems abhängt, sondern das Meßgerät selbst einem (vom zu messenden System unabhängigen) Zufall unterliegt. Dazu ist eine gründliche Auseinandersetzung mit der Theorie der Wahrscheinlichkeitsmaße auf distributiven und auf nicht-distributiven Verbänden nötig.
Durch zunehmende Vernetzung steigt auch das Interesse elektronische Wahlen mit Hilfe kryptographischer Methoden auf Rechnernetzen zu verwirklichen. In der folgendern Arbeit werden Wahlschemata behandelt, deren Ziel es ist, die gesamte Wahl auf einem Rechnernetz durchzuführen. Die Arbeit beschränkt sich auf Wahlen mit zwei Wahlvorschlägen. Auf Wahlen mit drei oder mehr Wahlvorschlägen wird nicht eingegangen. Im ersten Kapitel wird eine Einleitung in die elektronischen Wahlen gegeben. Im zweiten Kapitel wird das verwendete Modell eines Wahlschemas und die Anforderungen, bezüglich der die Wahlschemata untersucht werden, vorgestellt. Im dritten Kapitel werden die kryptographische Methoden für die folgenden Kapitel vorgestellt. Im vierten Kapitel werden zwei Wahlschemata betrachtet, deren Ansatz es ist, die Stimmen mit Hilfe von Schwellenwerten auf mehrere Behörden zu verteilen. Die Sicherheit der Wahlschemata in diesem Kapitel basiert auf dem diskreten Logarithmus. Im fünften Kapitel werden weitere Wahlschemata betrachet, bei denen die Wähler mit Hilfe von Verschlüsselungsmethoden ihre Stimmen an die Behörden senden. Die Sicherheit dieser Schemata basiert auf dem Wurzelziehen modulo einer zusammengesetzten Zahl mit unbekannter Faktorisierung. In diesem Kapitel lernen wir auch das erste quittungsfreie Wahlschema kennen. Im sechsten Kapitel werden Wahlschemata betrachtet, die das Konzept eines Mixes benutzen. Auch in diesem Kapitel lernen wir ein quittungsfreies Wahlschema kennen.
Euklidische Zerlegungen nicht-kompakter hyperbolischer Mannigfaltigkeiten mit endlichem Volumen
(1998)
Epstein and Penner constructed in [EP88] the Euclidean decomposition of a non-compact hyperbolic n-manifold of finite volume for a choice of cusps, n >= 2. The manifold is cut along geodesic hyperplanes into hyperbolic ideal convex polyhedra. The intersection of the cusps with the Euclidean decomposition determined by them turns out to be rather simple as stated in Theorem 2.2. A dual decomposition resulting from the expansion of the cusps was already mentioned in [EP88]. These two dual hyperbolic decompositions of the manifold induce two dual decompositions in the Euclidean structure of the cusp sections. This observation leads in Theorems 5.1 and 5.2 to easily computable, necessary conditions for an arbitrary ideal polyhedral decomposition of the manifold to be a Euclidean decomposition.
Das in der Plasmamembran tierischer Zellen vorkommende Enzym "Na+/K+-ATPase" setzt katalytisch ATP in ADP um. Als transmembranes Protein vollführt es während der Katalyse einen elektrogenen Zyklus von Konformationsänderungen, wobei 3 intrazelluläre Na+ gegen 2 extrazelluläre K+ ausgetauscht werden, und besitzt damit die Funktion eines primär aktiven Ionentransporters. Bisherige Aktivitätsmessungen, z.B. von B. Vilsen (Vilsen, 1994), an dem in Lösung befindlichen Enzym ergaben deutliche pH-Abhängigkeiten der Aktivität, die auf eine intrazelluläre Wechselwirkung des Protons mit der ATPase zurückgeführt wurden. Im Rahmen der hier vorliegenden Arbeit war nun die Frage zu klären, inwieweit der extrazelluläre pH-Wert auf die Transportfunktion der in der Membran liegenden Na+/K+-ATPase einen Einfluß ausübt. Es wurden daher elektrophysiologische Messungen mit dem Two-Elektrode-Voltage-Clamp-Verfahren und dem Giant-Patch-Clamp-Verfahren an der Zellmembran von Oozyten des Xenopus laevis durchgeführt und die pH-Abhängigkeit von durch die Na+/K+-ATPase verursachten transmembranen stationären als auch transienten Ionenströmen analysiert. Die stationären (steady-state) Ströme sind ein Maß für die Pumpaktivität, während die transienten auf Partialreaktionen des Enzyms schließen lassen. Die elektrophysiologischen Messungen wurden an der ouabainsensitiven und der ouabainresistenten Na+/K+-ATPase des Torpedo californica durchgeführt. Als Expressionssystem diente die Oozyte des Xenopus laevis. Die Messungen wurden mit Hilfe des Two-Elektrode-Voltage-Clamp-Verfahrens sowie des Giant-Patch-Clamp-Verfahrens durchgeführt. Um eine pH-Abhängigkeit zu untersuchen, wurden steady-state- als auch transiente Ströme bei den pH-Werten pH6, pH7,5 und pH9 gemessen. Als Pumenströme wurden die K+-aktivierbaren oder Ouabain-inhibierbaren Stromkomponenten betrachtet. Zunächst wurde die pH-Abhängigkeit von Pumpenströmen der im normalen Modus arbeitenden, ouabainsensitiven Na+/K+-ATPase untersucht. Die Pumpenströme wurden durch [K+]a=5mM aktiviert und durch [K+]a=0mM inhibiert. Die Messungen in einem natriumfreien extrazellulären Medium ergaben eine ausgeprägte pH-Abhängigkeit der Strom-Spannungskennlinien der Pumpenströme. Dieser Effekt wurde zum großen Teil auf einen, bei J.Rettinger (Rettinger, 1996) beschriebenen, Protonen-Einwärtsstrom zurückgeführt. Durch eine Korrektur konnten die vom Protoneneinwärtsstrom unbeeinflußten Pumpenströme analysiert werden, und es zeigte sich Potentialunabhängigkeit der Strom-Spannungskennlinien bei pH6 und pH9, während bei pH7,5 Potentialabhängigkeit (positive Steigung im negativen Potentialbereich) zu erkennen war. Dies wurde auf eine protonierbare im "access-channel" angenommene Stelle zurückgeführt, welche dann einen Einfluß auf die Affinität der Kationenbindung ausüben könnte. In hochnatriumhaltigem extrazellulären Medium (100mM) war dieser pH abhängige Effekt nicht nachweisbar, die Strom-Spannungskennlinien folgten dem schon bekannten Verlauf (Rakowski et al., 1997) mit einer positiven Steigung im negativen Potentialbereich. Weiterhin wurden transiente Ströme des Na/Na-Austausches sowohl an der ouabainsensitiven (OS) als auch an der ouabainresistenen (OR) Na+/K+-ATPase untersucht. Hierfür wurde in hochnatriumhaltigem (100mM) und kaliumfreiem extrazellulären Medium gemessen. Der Na/Na-Austausch der OS Pumpe wurde extrazellulär mit 100:M Ouabain inhibiert, während der der OR Pumpe mit 10mM Ouabain inhibiert wurde. Messungen mit dem Two-Elektrode-Voltag-Clamp-Verfahren ergaben auf Grund der zu geringen Zeitauflösung keine analysierbare pH-Abhängigkeit. Für die bei diesen Messungen festgestellte Ladungsverschiebung konnte eine effektive Wertigkeit von zq=0,80±0,02 ermittelt werden, was mit den Angaben von J. Rettinger et. al. (Rettinger et al., 1994) vergleichbar ist. Die Messungen mit dem Giant-Patch-Clamp-Verfahren an der OR und OS Pumpe ergaben für transiente Ströme einen relaxierenden Strom-Zeitverlauf, der einer Linearkombination aus drei unterschiedlich schnell relaxierenden Exponentialfunktionen mit verschiedenen Amplituden entspricht. Die Zeitkonstanten ließen keine signifikante pHAbhängigkeit erkennen. Ihre Werte lagen in den Bereichen 10-10 :s, 1-5ms und 10-200ms, wobei die am schnellsten relaxierende Funktion nicht analysiert werden konnten. Die langsam relaxierende Exponentialfunktion ließ sich der Konformationsänderung zuordnen, die mittelschnell relaxierende der extrazellulären Wechselwirkung mit den Na+-Ionen. Die Amplituden hingegen zeigten eine pH-Abhängigkeit. Im depolaren Potentialbereich hatten die Amplituden der mittelschnell relaxierenden Funktion bei pH6 eine größere Potentialabhängigkeit als bei pH9. Die Amplituden der langsam relaxierenden Funktion hatten im hyperpolaren Potentialbereich bei pH6 eine geringere Potentialabhängigkeit als bei höheren pH-Werten. Im ersten Fall könnte eine Protonierung an einer Stelle der ATPase die Potentialabhänigkeit über eine Veränderung des "accesschannels" verstärken, im zweiten Fall könnte diese in die Konformationsänderung eingebunden sein.
Entwicklung und Aufbau eines Elektronenstrahl-Extraktionssystems für die Frankfurter EZR-Ionenquelle
(1998)
Die vorliegende Arbeit entstand im Rahmen des Frankfurter 14.4GHz-EZR-(ve)RFQProjektes zur Erzeugung und Beschleunigung von hochgeladenen Ionen für atomphysikalische Experimente und zur Materialforschung. Die Kernelemente dieser Anlage sind eine 14.4 GHz Elektron-Zyklotron-Resonanz-Ionenquelle, ein 90-137° Analysiermagnet und ein Radio-Frequenz-Quadrupol-Beschleuniger mit variabler Energie. In der EZR-Ionenquelle werden hochgeladene Ionen durch Stöße mit schnellen Elektronen erzeugt. Die Elektronen werden durch Überlagerung eines magnetischen Doppelspiegelfeldes mit einem magnetischen Hexapolfeld in der Quelle eingeschlossen und durch Mikrowellenleistung nach dem Zyklotron-Resonanz-Prinzip auf hohe Energien beschleunigt. Bei der Entwicklung von Ionenquellen für hochgeladene Ionen verfolgt man das Ziel hohe Strahlströme bei höchsten Ladungszuständen und guten Strahlqualitäten (kleine Emittanzen) zu erreichen. In dieser Arbeit wird ein neues Konzept für die Extraktion von Ionenstrahlen aus einem EZR-Plasma mit Hilfe eines intensiven Elektronenstrahls untersucht. Die hochgeladenen Ionen werden durch einen Potentialtopf im Plasma gehalten und können nur durch Abschalten der Mikrowellenleistung extrahiert werden (Afterglow-Effekt). Durch die Injektion eines intensiven Elektronenstrahls von der Extraktionsseite aus in das Plasma, soll lokal ein negativer Raumladungskanal erzeugt werden, durch den die hochgeladenen Ionen dem Potentialtopf entkommen können. Die Elektronen laufen dabei in entgegengesetzter Richtung zu den Ionen. Die Ionen erfahren eine anziehende Kraft durch den negativen Raumladungskanal der Elektronen in Richtung Achse und werden dadurch zusätzlich fokussiert. Der negative Raumladungskanal dient auch zur Führung der Ionen, welche durch eine Bohrung in der Kathode extrahiert werden. Durch den Einschuß des Elektronenstahls von der Extraktionsseite aus in das Plasma können weitere Verbesserungen der Quellenparameter erwartet werden. So z. B. die Erzeugung von Sekundärelektronen zum Ausgleich von Elektronenverlusten aus dem Plasma und zur Erhöhung der Plasmadichte, die Vorionisation von neutralen Gasteilchen zur Erhöhung des Ionisationsgrades des Plasmas und damit verbunden, die Verringerung von Ladungsaustauschprozessen zwischen neutralen Teilchen und hochgeladenen Ionen, schließlich die Erzeugung von Festkörperionen durch Verdampfen, insbesondere von Metallen mit hohem Siedepunkt (z. B. Wolfram) und die Verbesserung der Emittanz, da die Ionen durch den Elektronenstrahl näher der Achse geführt werden und dadurch die Ionen mit einem kleineren Strahlradius extrahiert werden. Für die Erzeugung des Elektronenstrahls wurde eine mit Barium imprägnierte Wolfram- Kathode benutzt. Diese besitzt eine Emissionsstromdichte von 1 A/cm2 bei einer Temperatur von 1100°C und einer Oberfläche von 3 cm2. Zur Fokussierung des Elektronenstrahls werden die magnetischen Felder der beiden EZR-Spulen genutzt. Die magnetischen Feldlinien werden durch passive Abschirmung so geformt, daß diese senkrecht durch die Oberfläche der Kathode stoßen. Die erzeugten Elektronen werden entlang dieser magnetischen Feldlinien geführt. Da die Elektronen in Richtung Plasma beschleunigt werden, laufen diese in ein ansteigendes Magnetfeld, welches für die Fokussierung und Kompression des Elektronenstrahls sorgt. Um die Leistung des Elektronenstrahls zu vernichten, wurde ein wassergekühlter Kollektor auf der Gaseinlaßseite in der Quelle installiert. Dieser übernimmt außerdem die disk-Funktion, zum Ausgleich von Elektronenverlusten aus dem Plasma und zur Erhöhung der Plasmadichte. Er besteht aus ferromagnetischen Material (Reineisen) und sorgt somit für eine Verbesserung des Jochschlusses der Magnetfeldspulen und für eine Verbesserung des Spiegelverhältnisses auf der Gaseinlaßseite von 2.9 auf 3.8. Beim ersten Testeinbau des neuen Extraktionssystems, bei dem der wassergekühlte Kollektor und damit die disk fehlte, wurde die Arbeitsfähigkeit der Elektronenkanone in der Umgebung der arbeiteten EZR-Ionenquelle demonstriert. Die Kathode wurde mit ihrer Orginalbohrung von 1 mm Durchmesser eingesetzt, wodurch die Ionenströme um bis zu einem Faktor 1000 im Vergleich zu den herkömmlich gemessenen Ionenströmen reduziert wurden. Durch das Fehlen der disk zeigen die aufgenommenen Ladungsspektren einen Intensitätsabfall zu hohen Ladungszuständen hin. Dennoch konnte gezeigt werden, daß mit Elektronenstrahl wesentlich höhere Ionenströme erreicht werden, als im Betrieb ohne Elektronenstrahl. Mit dem Einbau eines wassergekühlten Kollektors und der Vergrößerung der Kathodenbohrung auf 3 mm Durchmesser konnten die Ionenströme im Maximum bei Ar8+ auf 25 mA gesteigert werden, so daß nur noch ein Faktor 4 bis zu den besten Ergebnissen der Quelle fehlt. Da jedoch durch die 3 mm Kathodenbohrung die Emittanz des Ionenstrahls besser ist als mit dem herkömmlichen Extraktionssystem, wäre ein Vergleich der Brillanzen nötig, um genaue Aussagen über die Qualität des Elektronenstrahl- Extraktionssystems zu machen, jedoch fehlte hierzu eine Emittanz-Meßanlage. Die Ladungsverteilung zeigt auch wieder den gewöhnlich Verlauf mit dem Maximum bei Ar8+. Vergleicht man nun die Ladungsspektren mit unterschiedlichen Mikrowellenleistungen, so zeigt sich bei mittleren Mikrowellenleistungen (700 W) eine überproportionale Erhöhung des Ladungszustandes Ar12+, jedoch eine Reduzierung des Ladungszustandes Ar11+. Untersuchungen bei hohen Mikrowellenleistungen (1700 W), das bedeutet einer höheren Plasmadichte gegenüber den Messungen mit mittleren Mikrowellenleistungen, zeigen ebenfalls, daß der Änderungsfaktor des Ladungszustand Ar12+ größer ist, als der des Ladungszustand Ar11+. Die Ladungsspektren zeigen auch, daß der Elektronenstrahl bei niedrigeren Plasmadichten größere Auswirkung auf die hohen Ladungszustände hat, als bei hohen Plasmadichten. Dies zeigt, daß die Elektronenstrahldichten im Vergleich zur Plasmadichte viel zu gering sind, so daß z. B. der gewünschte Effekt der lokalen Potentialabsenkung nicht einsetzt und die Änderungen in der Ladungsverteilung im wesentlichen auf die Fokussierungseigenschaften des Elektronenstrahls zurückzuführen sind. Hierzu müssen weitere Untersuchungen mit höheren Elektronenstrahldichten vorgenommen werden. In diesem Zusammenhang sind auch Untersuchungen zur Größe des nutzbaren Ionenreservoirs im Plasma (z. B. durch Afterglow-Effekt) an der Frankfurter EZR-Ionenquelle notwendig.
Die Bioinformatik dient der Lösung biologischer Probleme und Erkenntnisgewinnung mit Hilfe informatischer Methodik. und stellt das Bindeglied zwischen der Informationswissenschaft und der Lehre des Lebens dar. Eine festgeschriebene Definition des Begriffes „Bioinformatik" existiert nicht: Sie umfaßt ein weites Feld, beginnend bei der automatischen Sequenzierung ganzer Genome, über Funktionsanalysen durch Homologiesuchen in Datenbanken, Strukturvorhersagen und Modelling, bis hin zur chipgesteuerten Prothetik. Unterstützende Arbeit in der Molekularbiologie leistet die Bioinformatik bei der Aufnahme und Verwaltung von Nukleotid– und Aminosäuresequenzen in Datenbanken. Der rasante Fortschritt bei der Sequenzierung ganzer Genome führt zu explosionsartig ansteigender Datenfülle und damit zu stetig wachsenden bioinformatischen Anwendungsmöglichkeiten, die ihrerseits notwendig sind, um diese Datenfülle zu bewältigen. Die Genomprojekte erbrachten bislang die vollständige Sequenz der Genome von Species aus allen drei Überreichen: Eubakterien: Haemophilus influenza [17], Mycoplasma genitalium [18], Synechocystis sp [29]. u.a. Archaebakterien: Methanococcus jannaschii [16] u.a. Eukaryonten: Saccharomyces cerevisiae u.a. Ende 1998 soll auch die Sequenzierung des Nemathelminten (Rundwurm) Caenorhabditis elegans und den Menschen abgeschlossen sein................ Im Rahmen dieser Diplomarbeit sollte ein Programm entwickelt werden, das die intrinsischen Eigenschaften eines Proteins vorhersagt. Es soll die Ausgabe der Ergebnisse von drei Programmen (Coils2, TopPred2 und SignalP) analysieren und interpretieren, eine Prognose über die Präsenz von Coiled Coils, Transmembranregionen und Signalpeptiden erstellen und die betroffenen Bereiche der Aminosäuresequenz angeben. Die Nutzung dieses Hilfsmittels ist über das World-Wide-Web möglich. In einem weiteren Teil soll die Funktion von Proteinen, deren funktionelle Eigenschaften unbekannt sind, über Homologiesuchen und Deutung der Ähnlichkeiten zu Proteinen mit bekannter Funktion aufgeklärt und beschrieben werden. Es handelt sich hierbei um Proteine, die aufgrund von Sequenzähnlichkeit in 58 Familien, sogenannten UPFs (uncharacterized protein families), zusammengefaßt sind.
Beim zentralen Stoß zweier ultrarelativistischer Schwerionen wird ein Zustand extremer Dichte und Temperatur erzeugt, der die Bildung des postulierten Quark-Gluon-Plasmas ermöglichen sollte. Diese neue Phase von Kernmaterie zeichnet sich dadurch aus, daß Quarks und Gluonen ohne den unter Normalbedingungen herrschenden Einschluß in Hadronen frei beweglich sind. Das Experiment NA49 am CERN SPS untersucht Kollisionen von 208Pb-Kernen. Dazu wird ein Bleistrahl mit einer Energie von 158 GeV/Nukleon auf ein im Laborsystem ruhendes Bleitarget geschossen. Das Detektorsystem ist auf den Nachweis des hadronischen Endzustands der Reaktion spezialisiert und erlaubt die Messung von mehr als 60% der etwa 2000 produzierten Hadronen. Diese große Zahl von meßbaren Teilchen macht die Untersuchung von Spektren einzelner Ereignisse möglich, die mit dem über alle Ereignisse gemittelten Spektrum verglichen werden können. Damit will man Fluktuationen von Ereignis zu Ereignis, sogenannte Einzelereignisfluktuationen, nachweisen. Um eine von der Unterteilung der Spektren in Bins unabhängige Untersuchung durchführen zu können, wurden die Einzelverteilungen mit Hilfe von Wavelettransformationen in eine Vielskalendarstellung überführt. Durch die anschließende Berechnung von faktoriellen Momenten der Waveletkoeffizienten war daher eine Korrelationsanalyse auf verschiedenen Skalen möglich. Es wurden breit angelegte Simulationen durchgeführt, die quantitative Aussagen über das Verhalten der faktoriellen Waveletmomente bei verschiedenen Arten der Eingangsverteilungen - als Beispiel seien hier flach- und gaußverteilte Spektren genannt - möglich machten. Die Multiplizitätsabhängigkeit der Verteilungsbreite der faktoriellen Waveletmomente der Ordnung q von Ereignissen mit gleichverteilten Einträgen ergab sich so zu einer Gesetzmäßigkeit von der Form sigma q(m) ~ m exp (-q/2). Die Untersuchungen der experimentell erhaltenen p-Spektren zeigten im Rahmen der statistischen Fehler auf keiner Skala eine signifikante Abweichung von den aus Simulationen mit rein zufälligen Einträgen erhaltenen Ergebnissen. Im Vergleich mit Simulationsrechnungen wurde eine obere Grenze für das Auftreten lokaler nichtstatistischer Fluktuationen gesetzt. Solche Fluktuationen werden z.B. in DCC-Modellen vorhergesagt. Die in der Analyse der Waveletmomente festgestellte Abwesenheit lokaler Fluktuationen steht in qualitativer Übereinstimmung mit der Analyse globaler Einzelereignisvariablen (z.B. <p-i->), die ebenfalls auf ein System mit minimalem Korrelationsinhalt hinweisen.
Die Stoßparameterbestimmung, an den zur Zeit im Bau befindlichen bzw. geplanten Schwerionen-Collidern RHIC und LHC ist nicht mehr wie bei Experimenten mit festem Target über die Messung der Summe aller Spektatoren möglich. Am einfachsten sind die neutralen Spektatoren (Neutronen) nachzuweisen. Diese enden bei RHIC jedoch in einem Bereich zwischen den zwei Strahlrohren, der die Größe eines Detektors auf 10 cm Breite und 130 cm Länge beschränkt, was im Vergleich zu der Breite herkömmlicher Kalorimeter, die zur Messung von Spektatoren eingesetzt werden, sehr klein ist. Die Anzahl neutraler Spektatoren kann über deren Gesamtenergie bestimmt werden, da sie im wesentlichen den Strahlimpuls behalten. Am RHIC wird zu beiden Seiten der vier Wechselwirkungszonen je ein Kalorimeter zur Messung der neutralen Spektatoren installiert(d.h. insgesamt 8 Kalorimeter). Diese Kalormeter werden aus Wolfram bestehen und eine Länge von 6 hadronischen Wechselwirkungslängen haben. Zusätzlich sollen mit diesen Detektoren einzelne Neutronen aus Riesenresonanz-Abregungen gemessen werden. Über die Rate der Koinzidenz dieser einzelnen Neutronen auf beiden Seiten der Wechselwirkungszone soll die Luminosität des Beschleunigers bestimmt werden. An die Detektoren wurde in erster Line die Forderung nach einer Energieauflösung von ca 20% gestellt, um das Signal der einzelnen Neutronen vom Untergrund trennen zu können. Für die Messung der neutralen Spektatoren, deren erwartete Anzahl im Bereich von ~ 10 - 40 liegt, ist die Energieauflösung nicht so kritisch. Fluktuationen in der Signalhöhe des Detektors werden durch die Messung mehrerer Neutronen zum Teil kompensiert, die Energieauflösung skaliert mit der Anzahl der Neutronen Nn wie 1/sqrt(Nn). Weiterhin wurde die Forderung einer Zeitauflösung theta < 300 ps gestellt. Dies ist zum einen nötig, um bei der Messung der korrelierten Emission einzelner Neutronen zur Luminositätsbestimmung zufällige Koinzidenzen zu vermeiden. Weiterhin kann der Ort der Wechselwirkung über eine Laufzeitmessung der Spektatoren zu beiden Seiten des Wechselwirkungspunktes auf einige cm genau bestimmt werden. Eine neue Kalorimeter-Bauform, das Cherenkov-Licht-Kalorimeter, ermöglicht es hadronische Kalorimeter mit geringen lateralen Ausmaßen zu konstruieren, da nur der zentrale Teil des hadronischen Schauers zum Signal beiträgt. Cherenkov-Licht-Kalorimeter bestehen aus einem Absorbermaterial und darin eingebrachten Lichtleitern, in denen relativistische geladene Teilchen des Schauers Cherenkov-Strahlung erzeugen. Es wurden zwei Prototypen aus Kupfer bzw. Wolfram mit PMMA-Lichtleitern am SPS (CERN) im 100 GeV/c- und 158 GeV/c-Protonstrahl getestet. Beide Prototypen haben eine Länge von 8 hadronischen Wechselwirkungslängen Lambda I und einen Querschnitt von 10 x 10 cm*cm. Das Kupferkalorimeter ist longitudinal in 8 Module zu je a Lambda I Länge unterteilt, das Wolframkalorimeter besteht aus 4 Modulen von je 2 Lambda I Länge. Die Lichtleiter laufen bei beiden Prototypen unter 45 Grad relativ zur Strahlachse. In früheren Untersuchungen von Gorodetzky et al. wurde festgestellt, daß in dieser Anordnung, das maximale Signal erzeugt wird. Die Energieauflösung des Kupferkalorimeters beträgt 21.8 +- 0,5% RMS/E bei 100 GeV/c Strahlimpuls. Das Wolframkalorimeter hatte im 100 GeV/c-Protonstrahl eine Energieauflösung von 20.5 +- 0.5% RMS/E. Bei beiden Prototypen wurde eine Zeitauflösung von theta < 200 ps gemessen.
Die vorliegende geologische Arbeit befaßt sich mit einem Ausschnitt des Taunus. Der Taunus ist der südöstlichste Teil des Rheinischen Schiefergebirges und liegt in etwa zwischen Koblenz, Gießen, Frankfurt und Wiesbaden (Abb. 1 und 2). Marine Flachseesedimente prägen hier das Unterdevon des Rheinischen Schiefergebirges. Durch variszische Deformation entstand überwiegend NW- bis NNW-vergenter Faltenbau. Gravitative Kräfte ließen weitere tektonische Strukturen entstehen. Tertiäre Bruchtektonik schuf Horste und Gräben....... Das bearbeitete Gebiet weist unter großflächigen quartären Schuttdecken unterdevonische Sedimente der Tonschiefer- und Feinsandsteinfraktion auf. Im Unterdevon sorgte rasche Sedimentation bei ständiger Absenkung des Rheinischen Trogs für ein flaches Meer. Im Norden des Kartiergebiets tritt eine Fossilbank mit mariner Fauna zutage. Bei der mesozoisch-tertiären Verwitterung wurden die oberflächennahen Gesteine gelockert und Vererzungen und Roterden gebildet. Taleinschnitte in die tertiäre Rumpffläche sind pleistozänen Alters. Das devonische Gestein ist anchimetamorph überprägt und zeigt eine deutliche erste Schieferung, welche von einer intensiven Glimmerneubildung begleitet ist und primär stark nordwestvergent angelegt wurde. In feinpelitischen Bereichen kann eine zweite, postkristalline Schieferung ausgebildet sein. Durch starken Schuppenbau und anhaltende laterale Einengung bei der variszischen Überprägung entstanden im Taunus sogenannte "horse structures": Es kam zu sukzessiver Aufrichtung hangender Schuppeneinheiten bei nordwestlich fortschreitender Anlage von Überschiebungsbahnen im Liegenden. Im Scheitelbereich eines so entstandenen Vergenzfächers liegt das Kartiergebiet. Achsenflächen und Hauptschieferung stehen steil bis saiger. In diesen Bereichen kam es beim Kollaps des Gebirges durch gravitative Kräfte zur Anlage von Knickbändern. Sie ersetzen Verschiebungsflächen. Vereinzelt sind sie auch mit Abschiebungen verbunden. Die am häufigsten aufgeschlossene Knickband-Schar hat nach SE abschiebenden Charakter, eine zweite zeigt NW-gerichteten Bewegungssinn. Sie sind aufgrund der gleichgerichteten vertikalen Einengung zusammengehörend bzw. konjungiert. Die Knickachsen beider Scharen tauchen mit nur wenigen Grad in Streichrichtung ab. Manchmal sind Knickbänder dieser beiden Gruppen direkt konjungiert aufgeschlossen. Möglicherweise durch Rotation, als Teil konjungierter Knickbänder oder innerhalb größerer übergeordneter Knickbänder erscheinen einige der Knickbänder aufschiebend. Eine untergeordnete, dritte Knickband-Schar deutet mit schrägabschiebendem Verschiebungssinn eine Rotation der Spannungsrichtung und möglicherweise erste Bewegungen der Idsteiner Senke an. Sie ist im Untersuchungsgebiet nur selten aufgeschlossen. Die Untersuchungen im Zuge dieser Diplomarbeit ergaben, daß die Knickbänder bevorzugt in Bereichen südvergenter Schieferung entstanden. Im Süden und südlich des Kartiergebiets weist die Schieferung häufiger Südvergenz auf, weshalb dort fast ausschließlich nach S bis SE abschiebende Knickbänder einzumessen waren. Unterschiede zwischen Messungen im Westen und Osten des Gebiets wurden nicht festgestellt. Ein weiteres Ergebnis dieser Arbeit ist eine Longitudinalstrain-Berechnung von 3,4-6,8 % für die Gesteinspartien mit Knickbändern. Die Anlage der Knickbänder wird als letzte variszische Deformation angesehen. Ihr folgten außer kleineren Abschiebungen möglicherweise noch syn- und antithetische Rotationsbewegungen einzelner Gesteinsschollen. Demnach würden sich insgesamt die Anlage der Knickbänder und die Bildung der Vergenzfächer zeitlich überschneiden. Das Einfallen der Knickachsen und auch anderer Achsen und Lineare flach nach SW, ist wahrscheinlich durch tertiäre Bruchschollentektonik bedingt. Diese Bruchtektonik gliedert das Gebirge in Schollen mit Horsten und Gräben, so z.B. die bedeutende Grabenstruktur der Idsteiner Senke. Dabei kann der Vergenzfächer trotz vertikaler Bewegung horizontal versetzt worden sein. Seine Scheitellinie verändert zur Tiefe hin die Position ("horse structures") und tritt bei einer erodierten Hochscholle versetzt zutage.
Die Wahlerfolge Tony Blairs in Großbritannien und Lionel Jospins in Frankreich, die sich innerhalb weniger Wochen im Frühsommer 1997 ereignet haben, gaben der Sozialdemokratie nicht nur in diesen Ländern, sondern in ganz Europa neuen Auftrieb. Im September 1998 konnte auch die deutsche Sozialdemokratie die Wahlen für sich entscheiden. Diese Eregnisse scheinen die These vom „Ende des sozialdemokratischen Jahrhunderts“ (Dahrendorf) widerlegt zu haben. Zugleich haben sie Diskussionen darüber ausgelöst, welche Möglichkeiten eine sozialdemokratische Politik an der Wende zu einem neuen Jahrtausend hat und welche Strategien für sozialdemokratische Parteien auch in anderen Ländern erfolgreich sein können. Insbesondere in Deutschland werden Jospin und Blair als Träger völlig unterschiedlicher, ja gegensätzlicher Trends oder Modelle der Sozialdemokratie gesehen........ Die vorliegende Arbeit konzentriert sich deshalb auf die programmatischen Ziele beider Politiker und auf die von ihnen angestrebten organisatorischen Reformen der Labour Party bzw. der Parti socialiste. Die tatsächliche Politik Tony Blairs und Lionel Jospins wurde hingegen nicht in die Untersuchung einbezogen, da sie – insbesondere im Falle Jospins – noch stärker als die von den Politikern vertretenen Positionen eine Folge unterschiedlicher politischer Kräfte darstellt. Wie noch zu zeigen sein wird, besitzt Jospin 1997, als er zum Premierminister gewählt wird, nicht mehr die Macht, seine Vorstellungen ohne größere Zugeständnisse an andere Strömungen in der Partei umzusetzen. Dies macht es praktisch unmöglich, zu unterscheiden, wann Jospin seine persönliche Auffassung darlegt, wann er als Parteivorsitzender die als Kompromiß zwischen verschiedenen Strömungen entstandene Position vertritt und wann er als Regierungschef eine Meinung vertritt, die innerhalb der gesamten Regierungskoalition abgestimmt ist und gegebenenfalls die Positionen verschiedener gesellschaftlicher Kräfte und sozialer Bewegungen in Rechnung stellen muß. Die von Jospin als Premierminister betriebene Politik ist daher nicht Gegenstand der vorliegenden Arbeit. Der Schwerpunkt der vorliegenden Arbeit liegt auf der Rolle, die Tony Blair und Lionel Jospin bei der Entwicklung der Labour Party bzw. der Parti socialiste in den neunziger Jahren spielen. Wie gezeigt werden wird, vertritt Jospin jedoch bis 1993 noch eine Position, die derjenigen Blairs in vielen Punkten direkt entgegengesetzt ist. Ab 1996 wiederum gerät Jospin unter so starken Druck oppositioneller Strömungen in der Parti socialiste, daß er – aus taktischen Gründen – Positionen vertritt, die sich oft stark von denjenigen Blairs unterscheiden. Blair hingegen hat bei seinem Wahlsieg 1997 seine innerparteiliche Position so stark gefestigt, daß seine Politik noch wesentlich marktwirtschaftlicher orientiert ist als viele der von ihm zuvor vertretenen Positionen erwarten ließen. Im Mittelpunkt des Vergleichs steht daher bei Jospin der Zeitraum von 1993 bis 1995, bei Tony Blair der Zeitraum von seiner Wahl zum Parteivorsitzenden 1994 bis zum Jahr 1996, in dem er den Begriff der „stakeholder society“, der später näher behandelt wird, immer stärker in den Hintergrund treten läßt. Dieser Zeitraum wird in der vorliegenden Arbeit auch als die „StakeholderPhase“ Blairs bezeichnet.....
Das 1913 auf dem Gipfel des Kleinen Feldbergs gegründete Taunus-Observatorium (T.O.) ist eine Einrichtung der Johann Wolfgang Goethe-Universität Frankfurt am Main. Es dient dem Institut für Meteorologie und Geophysik als Forschungsstätte für kontinuierliche Messungen und als Standort für Meßkampagnen in Zusammenarbeit mit anderen Instituten, wie z. B. beim The Kleiner Feldberg Cloud Experiment 1990 [Fuzzi, 1995]. Darüber hinaus wird das Observatorium mit seinen Einrichtungen immer wieder für Messungen im Rahmen von Diplom- und Doktorarbeiten genutzt. Primäres Ziel dieser Diplomarbeit war eine Charakterisierung der zeitlichen Variabilität der luftchemischen Bedingungen am Taunus-Observatorium in Abhängigkeit von Wetter und Witterung. In der Zeit vom 13. Dezember 1996 bis zum 26. März 1997 wurden am Taunus- Observatorium auf dem Kleinen Feldberg mit Hilfe eines gaschromatographischen Analyseverfahrens die Spurengase Kohlenmonoxid und molekularer Wasserstoff gemessen, um die zeitliche Variabilität der luftchemischen Bedingungen am Taunus-Observatorium in Abhängigkeit von Wetter und Witterung zu untersuchen. Bei der Meßreihe am Taunus-Observatorium zeigte sich, daß die zeitlichen Variationen der langlebigen Spurengase CO und H2 über Tage und Wochen maßgeblich durch den Ferntransport von Luftmassen und die jeweilige Großwetterlage bestimmt werden. Mit Hilfe von Trajektorienanalysen konnte gezeigt werden, daß die Messungen stark von Herkunft und Zugweg der jeweiligen Luftmassen abhängen. Deutliche Änderungen der mittleren CO- und H2-Mischungsverhältnisse wurden bei Luftmassenänderungen beobachtet, wie z. B. eine markante Abnahme von Kohlenmonoxid und molekularem Wasserstoff nach dem Durchgang von Kalt- oder Warmfronten. Extreme Unterschiede der gemessenen Spurengaskonzentrationen konnten auch bei verschiedenen winterlichen Inversionswetterlagen registriert werden. Befand sich das Taunus-Observatorium unterhalb einer Temperaturinversion in der bodennahen Grenzschicht, wurden ungewöhnlich hohe CO- und H2-Mischungsverhältnisse gemessen; war der Kleine Feldberg dagegen über der Inversion innerhalb der freien Atmosphäre, wurden wiederholtdie atmosphärischen Hintergrundkonzentrationen von Kohlenmonoxid und molekularem Wasserstoff beobachtet. Auch durch lokale und regionale Effekte konnten in Abhängigkeit von der lokalen Windrichtung starke zeitliche Variationen der luftchemischen Bedingungen beobachtet werden. Durch die Orographie bedingt Verursachen kleine Änderungen der lokalen Windrichtung drastische Veränderungen in den gemessenen Spurengaskonzentrationen. So trennt z. B. der Taunuskamm die durch regionale Quellen im Großraum Frankfurt belastete Luft im Vordertaunus von der weniger verschmutzter Luft im ländlichen Hintertaunus. Darüber hinaus kann durch die Kanalisierung des Windes in verschiedenen Tälern oder an den Flanken des Taunuskammskontaminierte Luft aus den Niederungen herangeführt werden. Die hohe Variabilität der gemessenen Mischungsverhältnisse in Abhängigkeit von Meteorologie und Orographie dominiert den Tagesverlauf der CO- und H2-Messungen. Daher war eine Untersuchung von anthropogenen Tages- und Wochengängen oder sogar jahreszeitlicher Variationen der langlebigen Spurengase CO und H2 am Taunus-Observatorium nicht möglich. Zusätzlich zu den Messungen am Taunus-Observatorium wurde mit der in dieser Arbeit vorbereiteten Analytik das Mischungsverhältnis von molekularem Wasserstoff in stratosphärischen Luftproben von drei verschiedenen Ballonflügen gemessen, entsprechende H2-Vertikalprofile erstellt und die Ergebnisse der Messungen mit Modellrechnungen verglichen.
Anhang: A: Luftbild der Stadt Bebra (Ausschnitt). B: Topographische Karte, Legende (Ausschnitt). C: Grothus Stadtplan Bebra (Ausschnitt), Titelblatt, Legende. D: Faltplan Bebra. E: Foto aus Bebra (Aufnahme des Autors). F: "Eskalationen um das syrisch-orthodoxe Gemeindezentrum..." (Ausschnitt). Die Auswahl des Gegenstands dieser Arbeit geht auf eine lange Entwicklungsgeschichte zurück: Ursprüngliche Überlegung, die den Anstoß für die Analyse von Luftbildern und Karten gab, war die Idee, vor der Untersuchung einzelner Bewohner verschiedener Regionen (innerhalb einer geplanten Untersuchung von Deutungsmustern ländlich bzw. großstädtisch geprägter Jugendlicher) zunächst die Wohnumgebung als solche, sozusagen als "sozialökologisches objektives Datum1" zu untersuchen. Bald zeigte sich jedoch, daß der Ansatz in dieser Form nicht durchführbar war bzw. sich langfristig als nicht sinnvoll erwies: 1. Durch den Wechsel eines ursprünglich geplanten Koautors der Arbeit zu einem anderen Thema wurden die Möglichkeiten einer so umfangreichen Untersuchung, als die sich das Vorhaben darstellte, durch den Rahmen der Diplomarbeit stark eingeschränkt. 2. Unmittelbar vor der Anmeldung der Diplomarbeit - und damit bezüglich des Zeitpunkts somit ausschlaggebend - zeigte sich die Verlagerung des zunächst nur als objektives Datum gedachten Datenmaterial in den Mittelpunkt des Interesses. 3. Stellte sich im Verlauf der Arbeit heraus, daß die extensive Auslegung vor allem des Luftbilds weitreichendere Rückschlüsse erlaubt, als sie im anfänglichen Konzept eines "Standortfaktors" für einzelne Einwohner enthalten waren. Letztendlich wurde dieses anfängliche Teilprojekt zu einer eigenen Arbeit, die in der vorliegenden Form das Ziel verfolgt Luftbilder und Karten durch Analysen nach dem Verfahren der objektiven Hermeneutik auf ihre Ergiebigkeit hin zu untersuchen. Auch wenn eine methodische Fragestellung im Mittelpunkt steht, soll es in der Arbeit nicht darum gehen, die Grundlagen der objektiven Hermeneutik in Gänze zu entfalten. Falls innerhalb der Analysen methodische Erklärungen notwendig erscheinen, sollen diese an Ort und Stelle vorgenommen werden. Luftbild und Karte sind in der Stadt- und Siedlungssoziologie trotz der relativ einfachen Verfügbarkeit als eigenständiges Datenmaterial (das explizit in der Darstellung genannt wird) eher selten vertreten. Die genauen Gründe für diese "Abstinenz" in bezug auf diese Datentypen kann man nur ahnen: Die Soziologie beschäftigt sich mit dem Sozialen, "dem Zwischenmenschlichen", während die Geographie vorrangig das materielle Umfeld des Lebens untersucht. Auf diese Unterscheidung will ich hier nicht weiter eingehen, festzuhalten bleibt, daß die hier überzeichnet skizzierte Abgrenzung zwischen den Disziplinen nicht unproblematisch ist. Auch deshalb soll die Betrachtung der Methoden der Luftbild- und Kartenanalyse in der Geographie, wo die Beschäftigung mit diesen Datentypen zum "Alltagsgeschäft" gehört, in einem eigenen Kapitel erfolgen und nicht nur zur "Abgleichung" von Lücken dienen.
In dieser Arbeit definieren wir ein Maß für den Grad der Mehrdeutigkeit (degree of ambiguity da) kontextfreier Grammatiken und Sprachen als die Anzahl der Ableitungsbäume in Abhängigkeit von der Länge n eines Wortes. Wir zeigen, dass es weder Sprachen noch zyklenfreie Grammatiken gibt, deren Mehrdeutigkeitsgrad stärker als 2£(n) wächst (wie z B. £(nn)). Aus [10] ist es außerdem bekannt, dass es keine Grammatiken (und somit keine Sprachen) gibt, deren Mehrdeutigkeit stärker als polynomiell, aber schwächer als exponentiell wächst (wie z. B. £(2pn). Deshalb untersuchen wir in dieser Arbeit hauptsächlich konstant mehrdeutige, polynomiell mehrdeutige und exponentiell mehrdeutige Grammatiken und Sprachen. Für jede feste, ganze Zahl k 2 N hat Maurer [8] die Existenz einer k-deutigen kontextfreien Sprache nachgewiesen. Durch Verwendung einer einfacheren Sprache, nämlich der Sprache Lk := fambm1 1 bm2 2 : : : bmk k jm;m1;m2; : : : ;mk ¸ 1; 9 i mit m = mig, und mit Hilfe von Ogden's Lemma1 erhalten wir einen wesentlich kürzeren Beweis. Ferner zeigen wir die Existenz exponentiell mehrdeutiger Sprachen. Wir zeigen, dass die Sprache L¤ { wobei L = faibicj ji; j ¸ 1g [ faibjciji; j ¸ 1g-exponentiell mehrdeutig ist, indem wir beweisen, dass das Wort (ah+h!bh+h!ch+h!)k mindestens 2k Ableitungen in jeder Grammatik G für L¤ hat, wobei k aus N ist und h die Konstante aus Ogden's Lemma für G ist. Für beliebig kleines c aus R+ entwerfen wir eine Grammatik Gc für L¤, so dass daGc · 2cn gilt. Somit gilt, dass die Sprache L¤ zwar exponentiell mehrdeutig ist, aber es gibt kein festes c aus R+ , so dass L¤ 2cn-deutig ist. Wir geben polynomiell mehrdeutige Grammatiken an und zeigen die Existenz von polynomiell mehrdeutigen Sprachen, indem wir mit Hilfe von Ogden's Lemma beweisen, dass die Anzahl der Ableitungsbäume eines Wortes der Länge n in jeder Grammatik für die Sprache Lk in der Größenordnung von (nk) liegt, wobei k eine Konstante aus N ist, und L := fambm1cbm2c : : : bmpcjp 2 N; m;m1;m2; : : : ;mp 2 N; 9i 2 f1; 2; : : : ; pg mit m = mig gilt. Durch Angabe einer O(nk){deutigen Grammatik zeigen wir schließlich, dass Lk polynomiell vom Grad k mehrdeutig ist. Außerdem entwerfen wir für jedes feste d aus R+ eine Grammatik Gd für L, so dass daGd · dn dn für genügend großes n ist.
In der vorliegenden Arbeit wurde die Möglichkeit der Realisierung eines 2-Pi-Spaltfragmentdetektors untersucht. Damit soll es möglich sein eine Information über die Kernladungszahl eines Fragments aus spontaner oder teilcheninduzierter Spaltung zu erhalten. Die Meßmethode ist daraufhin ausgelegt, daß der korrespondierende Partner eines im Detektor nachgewiesenen Spaltfragments in einer dicken Quelle oder einem dicken Target gestoppt wird und der Gamma-Zerfall dieses neutronenreichen, meist hoch angeregten Kerns in Ruhe erfolgt . Die emittierte Gamma-Strahlung ist somit weder Dopplerverschoben noch -verbreitert und kann von Germanium-Detektorarrays spektroskopiert werden. Durch die hohe Selektivität der Spaltfragmentdetektion läßt sich damit die Struktur seltener, besonders neutronenreicher Kerne untersuchen. Die Methode basiert auf der Messung des spezifischen Energieverlusts eines Spaltfragments mit Hilfe einer Gasionisationskammer und der anschließenden Messung der Restenergie des Spaltfragments mit Hilfe eines Silizium-Halbleiterdetektors. Hierzu wurden Messungen von Spaltfragmenten aus spontaner Spaltung von 252-Cf mit Hilfe eines Detektorteleskops [Goh94] in Koinzidenz mit einem hochreinen Germanium Detektor durchgeführt. Das Teleskop bestand aus einer Ionisationskammer, die mit einem elektrischen Feld arbeitete, das senkrecht zur mittleren Spaltfragmenttrajektorie verlief, sowie einem ionenimplantierten Si-Detektor. Damit wurde ein Auflösungsvermögen von Z/Delta-Z ~ ll für Molybdän (Z=42) und Z/Delta-Z ~ 10 für Ruthenium (Z=44) gemessen. Um den ionenimplantierten Si-Detektor durch einen kostengünstigeren Detektortyp ersetzen zu können, wurden PIN-Dioden als Detektoren für die Energie der Spaltfragmente getestet. Hierbei wurden die Testkriterien von Schmitt und Pleasonton [SP 66] zugrunde gelegt. Die PIN-Diode der Serienproduktion erreichte näherungsweise alle von Schmitt und Pleasonton angegebenen Kriterien und übertraf das Kriterium für Energieauflösung deutlich. Der Ansatz zur Entwicklung eines Detektors mit großem Raumwinkel ist eine Ionisationskammer, die ein elektrisches Feld besitzt, das parallel zur mittleren Spaltfragmenttrajektorie gerichtet ist. Eine solche Feldgeometrie läßt sich leichter auf einen großen Raumwinkel erweitern. Dies macht die ausschließliche Verwendung von Gitterelektroden notwendig, damit die Spaltfragmente die Elektroden ohne nennenswerten Energieverlust passieren können. Mit Hilfe der Methode der Finiten Elemente wurden Potentialverläufe in einer solchen Ionisationskammer simuliert und auf dieser Basis ein Prototyp konstruiert und gebaut, der mit einer Feldrichtung parallel zur mittleren Spaltfragmenttrajektorie arbeitet. Zum Test dieses Detektors wurde ein Experiment mit protoninduzierter Spaltung von 238-U am Van-de-Graaf-Beschleuniger des Instituts für Kernphysik der Universität Frankfurt am Main durchgeführt. Unter Hinzunahme eines hochreinen Ge-Detektors wurden Spaltfragment-Gamma-Koinzidenzen aufgenommen. Das Ansprechverhalten des Spaltfragmentdetektors wurde mit Hilfe der Energieverlustdaten von Northcliffe und Schilling [NS70] numerisch berechnet. Damit konnte ein Auflösungsvermögen von Z/Delta-Z ~ 29 für Yttrium (Z=39) erreicht werden. Dieses Auflösungsvermögen stimmt ungefähr mit dem von Sistemich et al. [SAB+76] mit Hilfe von massen- und energieseparierten Spaltfragmenten gemessenen Auflösungsvermögen eines DeltaE-E-Detektors mit einem senkrecht zur mittleren Spaltfragmenttrajektorie ausgerichteten elektrischen Feld überein. Eine Auflösung von Nukliden der schweren Spaltfragmentgruppe war in beiden Experimenten nicht möglich. Abschließend wurde auf der Basis der Geometrie des EUROSiB-Detektors [dAP+96] die Realisierbarkeit eines 2-Pi-Spaltfragmentdetektors studiert. Dabei zeigte sich, daß es möglich sein sollte, einen solchen Detektor zu konstruieren, obwohl dieser aufgrund des näherungsweise radialsymmetrischen elektrischen Feldes an den Grenzen des Ionisationskammerbereiches arbeiten wird. Mit Hilfe einer möglichst punktförmigen Quelle sowie einer Segmentierung der PIN-Dioden um eine bessere Ortsauflösung zu erreichen, sollte es möglich sein, ein Auflösungsvermögen zu erhalten, das der Größenordnung des Auflösungsvermögens des Prototypen entspricht. Mit dem vorgeschlagenen Detektor ließe sich eine absolute Effizienz von rund 74% in 2-Pi erreichen.
Diese Arbeit entstand im Zusammenhang mit dem Funneling-Experiment am Institut für Angewandte Physik. Dieses Experiment soll die praktische Umsetzung des für das HIDIF-Projekt benötigte Funneln zur Ionenstrom-Erhöhung demonstrieren. Dabei stand die Erzeugung zweier identischer Ionenstrahlen mit einer Energie von 4 keV im Vordergrund. Diese Ionenstrahlen werden in zwei aufeinander zulaufenden RFQ-Beschleunigern auf eine Energie von 160 keV beschleunigt. Der noch in Planung stehende Funneling-Deflektor bringt die beiden Ionenstrahlen auf eine gemeinsame Strahlachse. Zu Beginn der Diplomarbeit stand der Umbau der Emittanzmeßanlage auf eine PC-Plattform. Gleichzeitig wurde ein sogenannter Quellenturm zum Betrieb der Ionenquellen aufgebaut (vgl. Kapitel 7.2). Die Multicusp-Ionenquellen wurden von K. N. Leung vom Lawrence Berkeley National Laboratory (LBNL) entwickelt und gebaut. Das elektrostatische Linsensystem wurde von R. Keller (LBNL) entworfen und berechnet. Die beiden Linsensysteme wurden in unserer Werkstatt gefertigt. Der erste Teil des Testbetriebs der Injektionssysteme, bestehend aus der Multicusp- Ionenquelle sowie dem elektrostatischen Linsensystem auch LEBT (Low Energy Beam Transport) genannt, bestand aus der Messung des Strahlstromes sowie der zugehörigen Emittanz. Zum Messen des Strahlstromes stand eine durch Preßluft in den Ionenstrahl fahrbare Faradaytasse zur Verfügung. Von dieser Faradaytasse wurde eine Kennlinie zur Bestimmung der Spannung der Sekundärelektronen- unterdrückung aufgenommen (vgl. Kapitel 8.1). Zur Messung der Strahlemittanz wurde eine Emittanzmessung nach dem Schlitz-Gitter Prinzip vorgenommen (vgl. Kapitel 5, Kapitel 7.7-7.9). Beim Betreiben der Injektionssysteme stand vor allem der Synchronbetrieb im Vordergrund. Dabei wurde festgestellt, daß eine der beiden Ionenquellen auch ohne Linsensystem einen größeren Strahlstrom liefert (vgl. Kapitel 8.9). Der Unterschied zwischen den Ionenquellen beträgt bei einem Bogenstrom von 6 A über 20 %. Dies bedeutet für den späteren Strahlbetrieb am RFQ, daß zum Erzeugen gleicher Strahlströme eine Ionenquelle immer mit einem kleineren Bogenstrom betrieben werden muß. Die dadurch unterschiedlichen Plasmadichten sowie thermischen Belastungen der Plasmakammer und unterschiedlichen Füllgrade der elektrostatischen Linsen tragen zu den festgestellten Emittanzunterschieden bei. Zum späteren Vergleich der Injektionssysteme wurde ein Injektionssystem durch verschiedene Bogenströme, variierte Spannungen an den elektrostatischen Linsen sowie unterschiedlichen Gasdrücken in der Plasmakammer ausgemessen. Diese Messungen wurden nach Wechseln der Glühkathode sowie Demontage und Neumontage von Ionenquelle und Linsensystem wiederholt. Dabei wurde festgestellt, daß sich der Strahlstrom bei der Vergleichsmessung kaum, die Emittanz der Injektionssysteme aber bis ca. 10% ändert (vgl. Kapitel 8.5). Diese Unterschiede müssen bei dem späteren Vergleich mit dem zweiten Injektionssystem einbezogen werden.Beim Betrieb des zweiten Injektionssystems wurden im direkten Vergleich der Injektionssysteme Unterschiede zwischen dem Strahlstrom sowie der Emittanz festgestellt. Auch hier lieferte das zweite Injektionssystem den schon nach der Ionenquelle festgestellten größeren Ionenstrom. Die gemessenen normierten 90 % RMS-Emittanzen bei einem Strahlstrom von 1 mA betragen am Injektionssystem 1 , beim Injektionssystem 2 , bei einer e1 =0,0288 mm mrad e2 =0,0216 mm mrad Strahlenergie von 4 keV. Die Emittanzunterschiede betragen bis zu 30 %. Im Betrieb mit dem RFQ können die Linsensysteme nicht mit den identischen Spannungen betrieben werden. Dies ist zum einen auf die fertigungsbedingten Unterschiede zurückzuführen, zum anderen auf die abweichenden Plasmadichten zum Erreichen gleicher Strahlströme. Im geplanten HIDIF-Projekt sollen 48 Ionenquellen drei unterschiedliche Teilchenströme erzeugen. Bei dieser Anzahl an Ionenquellen für drei unterschiedliche Ionensorten wird das Erzeugen identischer Teilchenströme sicher noch schwerer zu bewältigen sein. Am Funneling-Experiment ist der Vergleich der beiden Injektionssysteme abgeschlossen. Der Doppelstrahl RFQ-Beschleuniger ist aufgebaut, es wurde bereits ein Ionenstrahl in den RFQ eingeschossen (vgl. Kapitel 8.13). Die normierten 90 % RMS-Emittanzen nach dem RFQ betragen 0,057 mm mrad sowie 0,0625 mm mrad für die beiden Strahlachsen. Der Emittanzunterschied ist kleiner 9 %. Die Emittanzen nach dem RFQ können nicht direkt mit den im Testbetrieb gemessenen Emittanzen der Injektionssysteme verglichen werden. Im Strahlbetrieb mit dem RFQ wurde eine Strahlenergie der Injektionssysteme von 4,15 keV benötigt. Außerdem mußten durch geänderte Einschußbedingungen in den RFQ die Linsenspannungen gegenüber dem Testbetrieb variiert werden. Mit dem Aufbau des Funneling-Deflektors wird zur Zeit begonnen. Nach der Erprobung wird der Einbau in die Strahlachse erfolgen.
In dieser Arbeit wurde die transversale Flußgeschwindigkeit einer Schwerionenreaktion direkt bestimmt. Dazu modifizierte man den herkömmlichen Yano-Koonin-Podgoretskii Formalismus, der zur Bestimmung der longitudinalen Expansion bereits erfolgreich eingesetzt wurde. Die transversale Expansion wurde in verschiedenen kinematischen Bereichen bestimmt. Einzelne Quellabschnitte erreichen Geschwindigkeiten bis zu b = 0.8. Das entspricht den Werten, die man durch indirekte Verfahren für den transversalen Fluß bestimmte. In den Intervallen mittlerer longitudinaler Paarrapidität entspricht die Yano-Koonin-Podgoretskii Rapidität der mittleren Paarrapidität. Dieses Verhalten erwartet man von einer Quelle, die ein boostinvariantes Expansionsverhalten besitzt. Die HBT-Radien, die im Zuge der Analyse der Korrelationsfunktion bestimmt wurden, entsprechen in der Größenordnung denen, die bei der Untersuchung der longitudinalen Expansion bestimmt wurden. Lediglich der Parameter R0 zeigt ein abweichendes Verhalten, indem er für geringere Rapiditäten kleinere Werte annimmt, dieser Parameter ist jedoch mit einem großen Fehler belastet. Die Konsistenz des Formalismus bezüglich verschieden gewählter transversaler Richtungen wurde überprüft. Trotz erheblicher Unterschiede in den transversalen Rapiditätsverteilungen wurden in vier verschiedenen Richtungen vergleichbare Resultate gemessen. Um einen größeren Impulsbereich abzudecken wurden die Messungen in zwei verschiedenen Magnetfeldkonfigurationen durchgeführt, in den Bereichen wo die Parameter der Korrelationsfunktion im beiden bestimmt werden konnten, ergaben sich vergleichbare Werte.
In der hier vorliegenden Diplomarbeit wurde der globale Einfluß des ENSO-Phänomens (El Niño/Southern Oscillation) und des Vulkanismus auf den Luftdruck in Meeresspiegelhöhe sowie auf die Lufttemperatur in Bodennähe untersucht. Weiterhin sollte der Frage nachgegangen werden, ob starke Vulkanausbrüche das ENSO-Phänomen beeinflussen. Hierfür wurden 100-jährige Zeitreihen von Jahres- und saisonalen Mitteln des Southern-Oscillation-Index (SOI), Anomalien der Meeresoberflächentemperatur im tropischen Ostpazifik (SST) sowie der Vulkanismusparameter nach Grieser [17] verwendet. Weiterhin wurde ein globaler, aus 80 flächengleichen Boxen bestehender Datensatz des Luftdrucks in Meeresspiegelhöhe für den Zeitraum 1883 bis 1992 erstellt und ein gleichartiger Boxdatensatz der Luftemperatur in Bodennähe verwendet. Die angewandte Methodik ist eine von Denhard 1996 [11] entwickelte Filtertechnik (Prozeßfilter), mit deren Hilfe sich externe Störungen auf ein dynamisches System analysieren lassen. Es wurde ein methodischer Vergleich zwischen dem Prozeßfilter und der Kreuzspektralanalyse durchgeführt, der aufzeigte, daß bei der hier vorliegenden Fragestellung der Prozeßfilter bessere Ergebnisse liefert. Die Analysen der ENSO-Parameter (SOI, SST) mit den Boxdatensätzen der internen Klimavariablen (Luftdruck und Temperatur) bestätigen die bekannten Wirkungen des ENSO-Phänomens auf das Temperatur- sowie das Luftdruckfeld in Bodennähe bzw. Meeresspiegelhöhe. Für einen entdeckten, im jahreszeitlichen Verlauf unterschiedlichen Einfluß von ENSO auf die Lufttemperatur im tropischen Westpazifik ist dem Autor keine vergleichbare Diskussion aus der Literatur bekannt. In dieser Region wurde im Winter und Frühjahr (jeweils bezogen auf die Nordhemisphäre) eine Erhöhung der Lufttemperatur während El Niño, im Sommer und Herbst dagegen eine Erniedrigung festgestellt. Die Wirkung des Vulkanismus auf den Luftdruck in Meeresspiegelhöhe ist stark von ENSO überlagert. Dieser Effekt wurde in abgeschwächter Form auch bei den, ansonsten klimatologisch interpretierbaren, Korrelationsmustern zwischen den Gebietsmittelreihen der bodennahen Lufttemperatur und dem Vulkanismusparameter festgestellt. Ein ursächliches Einwirken des Vulkanismus auf ENSO konnte im Rahmen dieser Arbeit nicht gefunden werden.
Wir werden uns in dieser Arbeit vorwiegend mit einem Modell befassen, das Y. Peres, C. Kenyon, W. Evans und L.J. Schulman 1998 in ihrem Artikel \Broadcasting on trees and the Ising-Modell" eingeführt haben.
In diesem Modell wird ein Signal, das die Werte +1 oder -1 annehmen kann, von der Wurzel eines Baumes aus entlang der Äste eines unendlichgroßen Baumes übertragen. Die Kanten des Baumes agieren dabei als Übertragungskanäle zwischen den Knoten. Jede Kante kann das Signal korrekt übertragen oder es flippen, das heißt, das Vorzeichen des Signals umkehren.
Das Übertragungsverhalten der Kanten ist zufällig. Mit einer festen Wahrscheinlichkeit ϵ, mit 0 < ϵ <= 1/2 , verfälscht eine Kante das Signal. Dies geschieht an allen Kanten unabhängig mit der gleichen Wahrscheinlichkeit. Es stellt sich nun die Frage, wie groß diese Fehlerwahrscheinlichkeit höchstens sein darf, damit das, was in der Krone des Baumes ankommt, noch etwas zu tun hat mit dem, was in der Wurzel eingespeist wird. Mit anderen Worte: Sind die Signale auf Knoten, die einen Abstand >= n von der Wurzel haben, für n -> ∞ asymptotisch unabhängig vom Signal in der Wurzel? Eine Möglichkeit, den Grad der Abhängigkeit zu messen, ist die sogenannte Information, der Kullback-Leibler-Abstand von gemeinsamer Verteilung zur Produkt-Verteilung, die in Definition 16 eingeführt wird.
Wir werden sehen, daß es eine kritische Schwelle ϵc;I für Informationsübertragung gibt. Ist die Fehlerwahrscheinlichkeit größer als ϵc;I , so ist die Information, die zwischen Wurzel und Krone übertragen wird, 0. Ist die Fehlerwahrscheinlichkeit kleiner als ϵc;I , so wird Information übertragen. Dieser kritische Wert ϵc;I hängt nur von der Branching-Number, einer Art mittleren Verzweigungszahl, des Baumes (vgl. Definition 1) ab.
Wir werden sehen, daß das Broadcasting-Modell eine elegante Formulierung eines wohlbekannten Modells, des Ising-Modells, mit freien Randbedingungen, ist.
Im Ising-Modell hat jeder Knoten des Baumes einen "magnetischen" Spin, der entweder +1 oder -1 sein kann. Spins direkt benachbarter Knoten beeinflussen sich, in dem sie versuchen, den gleichen Wert anzunehmen. Diesem Effekt wirkt ein thermischer Einfluß entgegen, der mittels eines als Temperatur bezeichneten Parameters modelliert wird.
Die klassische Frage im Ising-Modell ist, ob Phasenübergang stattfindet. Wir wollen Phasenübergang als das Phänomen verstehen, daß die Wurzel des Baumes die Vorgabe von Randbedingungen auf der Krone des Baumes spürt. Ist dies der Fall, so sagen wir, daß Phasenübergang stattfindet. Auch dies ist eine
Form der gegenseitigen Beeinflussung zwischen Wurzel und Krone des Baumes. Russel Lyons hat 1989 in seinem Artikel \The Ising-Model on trees and treelike Graphs" das Ising-Modell auf Bäumen untersucht und gezeigt, daß es eine kritische Temperatur tc für Phasenübergang gibt. Ist die Temperatur höher als tc, so spürt die Wurzel nichts von den Randbedingungen der Krone; ist die Temperatur geringer als tc, so haben die Randbedingungen Einfluß auf die Wurzel. Auch hier hängt die kritische Temperatur nur von der Branching-Number des Baumes ab.
In der Broadcasting-Formulierung des Modells ist der Fluß von Information ein naheliegendes Werkzeug, um die Beeinflussung von Wurzel und Krone zu messen, in der Ising-Formulierung ist die Existenz von Phasenübergang ein ebenso naheliegendes Werkzeug, ebendiesen Einfluß zu messen.
Wir werden die beiden Arten der Beeinflussung miteinander vergleichen und können zeigen, daß für die Übertragung von Information stets eine stärkere Interaktion zwischen den Knoten notwendig ist, als für den Einfluß der Randbedingungen aus der Krone.
Als letztes Phänomen werden wir untersuchen, ob es einen Pfad im Baum gibt, der in der Wurzel startend nur Knoten gleichen Spins besucht und die unendlich weit entfernte Krone erreicht. Wir bezeichnen dieses Phänomen als Spinperkolation.
Wir werden die Berechnung der kritischen Interaktion für Spinperkolation in einem Bernoulli-Feld auf den Kanten rekapitulieren und dann zeigen, daß die Existenz eines Perkolationspfades nur von der Interaktionsstärke des Modells und nicht von etwaigen Randbedingungen abhängt. Dabei kombinieren wir Ergebnisse aus zwei Arbeiten von Lyons und die Erkenntnis, daß Broadcasting- Modell und freies Ising-Modell identisch sind. Wir erhalten so einen neuen, einfachen Beweis über die kritische Interaktion für Spinperkolation in der Plus-Phase des Ising-Modells, die Lyons bereits in [7] berechnet hat.
Die vorliegende Arbeit befaßt sich mit der Planung und dem Aufbau der mehrkanaligen Strahlführung im Anschluß an den VE-RFQ Beschleuniger der Frankfurter EZR-VE-RFQ Anlage. Die Umsetzung der mit Hilfe von Simulationen gefundenen Strahlführung war ebenso Gegenstand dieser Arbeit wie erste Tests der neuen Anlagenkomponenten. Mit der Fertigstellung dieses Teilabschnitts steht jetzt der Energiebereich von 100–200 keV/u ergänzt durch den niederenergetischen Bereich von 5–60 kV für Experimente mit mehrfach geladenen Ionen in zwei von drei geplanten Strahlkanälen zur Verfügung. Die Kombination, bestehend aus EZR-Ionenquelle und VE-RFQBeschleuniger, erlaubt einerseits atomphysikalische Experimente mit speziell präparierten Ionenstrahlen und verschiedenen Ionensorten. Andererseits liefert die verwendete Ionenquelle hohe Intensitäten an mehrfach geladenen Ionen, die für spezielle Anwendungen der Materialforschung benötigt werden. Diese Arbeit gliedert sich in drei Abschnitte, im ersten Schritt wurde die HF-Einkopplung des Beschleunigers modifiziert und der Ionenstrahl im transversalen Phasenraum charakterisiert. Dabei hat sich gezeigt, daß die experimentell gefundene Geometrie der Einkoppelschleife im Betrieb nur in einem sehr geringen Bereich verfahren werden muß, um optimale Anpassung über den gesamten Frequenzbereich zu erreichen. Auf Basis der gemessenen Emittanzen erfolgte die Planung der Strahlführung mit Hilfe von Simulationsprogrammen im zweiten Schritt. Das Ziel war der Aufbau von drei Strahlkanälen mit unterschiedlichen Anforderungen an das Profil des Ionenstrahls. Im letzten Schritt stand die Umsetzung der geplanten Strahlführung. Verbunden mit diesem Schritt war die Konstruktion und Vermessung der ionenoptischen Elemente und der Aufbau der Strahlführung unter Verwendung von vorhandenen magnetischen Quadrupolen und Ablenkmagneten. Abschließend wurde die Funktionsfähigkeit des vorgestellten Aufbaus als Bestandteil der kompletten EZR-VE-RFQ-Anlage im Betrieb getestet. Im Rahmen des Aufbaus und der ersten Experimente waren diverse technische Fragestellungen aus dem Bereich der Beschleunigerphysik, über die Ionenoptik bis hin zur Ionenquellenphysik zu bearbeiten und Probleme zu lösen. Die ersten Tests der einzelnen ionenoptischen Elemente und der Betrieb der gesamten Strahlführung haben gezeigt, daß die gestellten Aufgaben erfüllt werden. Nach der Fertigstellung des Grundaufbaus der Strahlführung für die nachbeschleunigten Ionen durch den Aufbau des noch fehlenden 90°-Kanals und den Aufbau einer Strahldiagnose, muß im nächsten Schritt die Optimierung der einzelnen Strahlkanäle erfolgen. Das Ziel liegt dabei in der Verbesserung der Transmission und der Qualität der zur Verfügung gestellten Ionenstrahlen. Damit verbunden ist auch die Charakterisierung der Ionenstrahlen in den verschiedenen Strahlzweigen. Unabhängig davon ist die Untersuchung der Injektion in den RFQ notwendig, zur Verbesserung der Anpassung des Quellenstrahls an die Akzeptanz des Beschleunigers und zur Diagnose der Ursache für die Teilchenverluste in diesem Teilabschnitt des Aufbaus.
Es wurde eine Apparatur zur Messung der Ladungszustandsverteilung von langsamen, hochgeladenen Ionen nach der Wechselwirkung in dünnen Foilen aufgebaut und angewendet. Die Ladungszustandsverteilung von Ionen mit Ladungszuständen von 1+ (H) bis 75+(Th) wurden im Geschwindigkeitsbereich von 0.2 bis 0.75 vBohr nach einer 5 nm und 10 nm dicken amorphen Kohlenstoff-Folie bestimmt. Ionen, die die (10 nm)-Folie passierten, befanden sich im wesentlichen in einem Gleichgewichtsladungszustand (1-2+), der sich grob durch das Bohr-Kriterium beschreiben läßt. Die mittleren Endladungszustände von Ionen mit Anfangsladungen >= 33+ zeigten nach der 5 nm dicken Folie eine deutliche Abweichung von diesem Gleichgewicht. Mittlere Ladungszustände bis zu 8.2+ (Th) wurden beobachtet. Es handelt sich dabei um die erste Beobachtung von Nicht-Gleichgewichtsladungszuständen langsamer Ionen nach der Transmission durch einen Festkörper. Dieses Ergebnis wird dahingehend gedeutet, daß die Zeitspanne, die zur Neutralisation und Relaxation der Ionen in der 5 nm Folie zur Verfügung steht, nicht ausreichend ist. Aus den Ergebnissen der Sekundärelektronen Ausbeute wird geschlossen, daß ein Teil der Innerschalen-Plätze bis zum Austritt aus der Folie nicht gefüllt werden konnte. Desweiteren könnte eine Verarmung des Festkörpers an Elektronen im Einschlagsbereich des hochgeladenen Ions vorliegen. Anhand der gesammelten Daten wurde ein semi-empirisches Modell zur Beschreibung des Ladungszustandes eines hochgeladenen Ions in einem Festkörper aufgestellt. Es zeigt sich, daß die Daten gut durch einen zweistufugen Füllprozess beschrieben werden können, der aus einem Aufbau einer Abschirmwolke um das Projektil, sowie der weiteren Abregung besteht. Die charakteristischen Zeiten für Aufbau und Abregung bewegen sich im Bereich von 2 fs. Nach etwa 7 fs kann von einer vollständigen Relaxation des Projektils ausgegangen werden. Die Ergebnisse dieser Arbeit zum Ladungsausgleich der hochgeladenen Ionen wurden in [37] veröffentlicht.
Als Ergebnis dieser Arbeit kann man sehen, daß es experimentiell gelungen ist, mit einem alpha-förmigen Linearresonator einen stabilen unabhängig abstimmbaren Zwei-Farben Ti:saphir Laser aufzubauen, der so in der wissenschaflichen Literatur noch nicht beschrieben ist. Eine Veröfentlichung zu der vorgelegten Arbeit [22] ist beim IEEE Journal of Quantum Electronics eingereicht worden. Die Ausgangsleistung dieses Lasers liegt bei 300 mW. Die durchgeführten Experimente lassen darauf schließen, daß der Laser die meiste Zeit nur auf einer longitudinalen Mode emittiert. Bei einem gleichzeitig möglichen Abstimmbereich von 740 nm bis 850 nm, welches ein Verhältnis von Linienbreite zu Abstimmbereich von besser als 1:250000 bedeutet. Den Beweis, daß der Laser auch bei sehr geringen Differenzfrequenzen betrieben werden kann, lieferte die direkte Messung des Schwebungssignals zwischen den beiden Lasern. Dabei muß man zugeben, daß das im Eingangszitat dieser Arbeit erwähnte Schwebungssignal nicht ohne Hilfsmittel an einer Wand zu beobachten war, sondern eine minimale Schwebung von 3 Mhz gemessen wurde. Im Vergleich zu den 3 x 10 exp 8 Mhz der einzelner Farben ist dies aber ein gutes Ergebnis. Zusätzlich wurde mit dem Ringlaser ein anderer Ansatz zur Abstimmung des Systems realisiert. Diese Anordnung hat mit 800 mW Vorteile bezüglich der Ausgangsleistung aber Nachteile in Hinblick auf Abstimmung und Linienbreite. Im theoretischen Teil konnte gezeigt werden, welche Eigenschaften ein Laser-Resonator haben muß, um stabil im Zweifarben Betrieb eingesetzt zu werden. Weiterhin konnten auch noch die dynamischen Effekte der beiden Resonatortypen mit Hilfe einer Simulation beschrieben werden. Der Laser soll in der Erzeugung von kontinuierlicher Strahlung im Thz Bereich verwendet werden. Dabei sollen photokonduktive Antennen, wie auch Halbleiteroberflächen als Emitter dienen. Bis zum Ende dieser Arbeit konnte der Laser aus zeitlichen Gründen nicht für diese Messungen eingesetzt werden, da es zu Verzögerungen mit den Proben, wie auch mit den Meßgeräten kam. Die Charakterisierung des Lasers aber zeigte, daß die beiden schmalbandigen Farben bei einer Differenzfrenz im Thz-Bereich (20 GHz–50THz) stabil zu realisieren sind.
The thesis in general deals with CORBA, the Common Object Request Broker Architecture. More specifically, it takes a look at the server-side, where object adapters exist to aid the developer in implementing objects and in dealing with request processing. The new Portable Object Adapter was recently added to the CORBA 2.2 standard. My task was the implementation of the POA in MICO and the examination if (a) the POA specification is sensible and (b) in which areas it improves over the old Basic Object Adapter. After introducing distributed platforms in general and CORBA in particular, the thesis' main two chapters are a detailed abstract examination ("Design") of the POA design and their relization ("Implementation"), highlighting the potential trouble spots, persistence and collocation.
Die Neue Institutionenökonomie beschäftigt sich mit der Erklärung institutioneller Gegebenheiten wie Vertrags- und Organisationsformen und versucht, eine Begründung für die Existenz von Unternehmen zu finden. Ein Bestandteil der Neuen Institutionenökonomie ist, neben der Principal- Agent- und der Property-Rights-Theorie, die hier näher zu erörternde Transaktionskostentheorie. Entstanden ist die Transaktionskostentheorie aus der Kritik an der Neoklassik, insbesondere an den dieser zugrunde liegenden Annahmen. Innerhalb der neoklassischen Theorie wird der Preismechanismus als das zentrale Instrument zur Koordination von wirtschaftlichen Aktivitäten betrachtet. Die Wirtschaftssubjekte handeln in einem Markt unter vollständiger Konkurrenz, in dem sich ohne Verursachung von Kosten ein Gleichgewichtspreis bildet. Sie verhalten sich daher als Mengenanpasser, die aufgrund dieses vorgegebenen Preises ihren Gewinn maximieren. Im Gegensatz dazu wird in der Transaktionskostentheorie davon ausgegangen, daß die Bildung des Preises bzw. die Nutzung des Marktmechanismus nicht kostenlos genutzt werden kann. Aus der Annahme der Neoklassik, daß der Preis die operativen Entscheidungen der Wirtschaftssubjekte determiniert und zu einer effizienten Allokation der Produktionsfaktoren führt,6 stellt sich weiterhin die Frage nach dem Grund für die Existenz von Unternehmungen, welche mit Hilfe der Transaktionskostentheorie beantwortet wird. Wäre der Marktmechanismus tatsächlich in der Lage alle wirtschaftlichen Aktivitäten effizient zu koordinieren, so bestünde keine Notwendigkeit für die Bildung von Institutionen. Die Entstehung von Unternehmen ist daher auf ein Versagen des Preismechanismus aufgrund von Transaktionskosten zurückzuführen....
In der vorliegenden Arbeit wurde ein chirales SU(3)-Modell auf verschiedene Erscheinungsformen endlicher Kernmaterie angewendet. Das Modell basiert auf chiraler Symmetrie in nichtlinearer Realisierung. Die Symmetrie muss spontan gebrochen werden um die beobachtete Massendifferenz zwischen skalaren und pseudoskalaren Mesonen reproduzieren zu können. Um den pseudoskalaren Mesonen eine endliche Masse zu geben ist eine explizite Brechung der chiralen Symmetrie nötig.
Im heutigen Zahlungsverkehr übernehmen in zunehmendem Maße Zahlungen mit Kreditkarten eine entscheidende Rolle. Entsprechend der Verbreitung dieser Art des Zahlungsverkehrs nimmt ebenfalls der Mißbrauch mit diesem bargeldlosen Zahlungsmittel zu. Um die Verluste, die bei dem Kreditkarteninstitut auf diese Weise entstehen, so weit wie möglich einzudämmen, wird versucht, Mißbrauchstransaktionen bei der Autorisierung der Zahlungsaufforderung zu erkennen. Ziel dieser Diplomarbeit ist es zu bestimmen, in wie weit es möglich ist, illegale Transaktionen aus der Menge von Autorisierungsanfragen mit Hilfe adaptiver Algorithmen aufzudecken. Dabei sollen sowohl Methoden aus dem Bereich des Data-Mining, als auch aus den Bereichen der neuronalen Netze benutzt werden. Erschwerend bei der Mißbrauchsanalyse kommt hinzu, daß die Beurteilung der einzelnen Transaktionen in Sekundenbruchteilen abgeschlossen sein muß, um die hohe Anzahl an Autorisierungsanfragen verarbeiten zu können und den Kundenservice auf Seiten des Benutzers und des Händlers auf diese Weise zu optimieren. Weiter handelt es sich bei einem Großteil der bei der Analyse zu Verfügung stehenden Datensätze um symbolische Daten, also alpha-numerisch kodierte Werte, die stellvertretend für verschiedene Eigenschaften verwendet werden. Nur wenige der Transaktionsdaten sind analoger Natur, weisen also eine Linearität auf, die es erlaubt, "Nachbarschaften" zwischen den Daten bestimmen zu können. Damit scheidet eine reine Analyse auf Basis von neuronalen Netzwerken aus. Diese Problematik führte unter anderem zu dem verfolgten Ansatz. Als Grundlage der Analyse dienen bekannte Mißbrauchstransaktionen aus einem Zeitintervall von ungefähr einem Jahr, die jedoch aufgrund der hohen Anzahl nicht komplett als solche mit den eingehenden Transaktionen verglichen werden können, da ein sequentieller Vergleich zu viel Zeit in Anspruch nähme. Im übrigen würde durch einen einfachen Vergleich nur der schon bekannte Mißbrauch erkannt werden; eine Abstraktion der Erkenntnisse aus den Mißbrauchserfahrungen ist nicht möglich. Aus diesem Grund werden diese Mißbrauchstransaktionen mit Hilfe von Methoden aus dem Bereich des Data-Mining verallgemeinert und damit auf ein Minimum, soweit es die Verläßlichkeit dieser Datensätze zuläßt, reduziert. Desweiteren schließt sich eine Analyse der zu diesem Zeitpunkt noch nicht betrachteten analogen Daten an, um die maximale, enthaltene Information aus den Transaktionsdaten zu beziehen. Dafür werden moderne Methoden aus dem Bereich der neuronalen Netzwerke, sogenannte radiale Basisfunktionsnetze, verwendet. Da eine Mißbrauchsanalyse ohne eine entsprechende Profilanalyse unvollständig wäre, wurde abschließend mit den vorhanden Mitteln auf den zugrunde liegenden Daten in Anlehnung an die bisherige Methodik eine solche Profilauswertung und zeitabhängige Analyse realisiert. Mit dem so implementierten Modell wurde versucht, auf allgemeine Art und Weise, Verhaltens- beziehungsweise Transaktionsmuster einzuordnen und mit bei der Mißbrauchsentscheidung einfließen zu lassen. Aus den vorgestellten Analyseverfahren wurden verschiedene Klassifizierungsmodelle entwickelt, die zu guten Ergebnissen auf den Simulationsdaten führen. Es kann gezeigt werden, daß die Mißbrauchserkennung durch eine kombinierte Anwendung aus symbolischer und analoger Auswertung bestmöglich durchzuführen ist.
Im Rahmen dieser Arbeit wurde erstmals die Realisierung eines (e,3e)- Experimentes an Helium mittels der Cold Target Recoil Ion Momentum Spectroscopy (COLTRIMS) behandelt. Dabei ging es hauptsächlich um den Aufbau, die Entwicklung, Test und die Durchführung des Experiments. Dazu wurde ein neues Kammersystem am Atomphysikkanal der Frankfurter EZR mit zweistufigem Ultraschallgasjet aufgebaut, an dem in Zukunft noch weitere COLTRIMS- Experimente stattfinden werden. In dieser Arbeit wurde eine Dreifach-Koinzidenz zwischen dem gestreuten Projektilelektron, dem einfach- oder zweifach geladenem Rückstoßion und dem langsamen Elektron verwirklicht. Sie stellt das wesentliche Ergebnis der vorliegenden Arbeit dar. Koinzident zum Streuwinkel und Energieverlust des Projektilelektrons wurden hierbei Flugzeiten und Auftrefforte rte von He1 - bzw. He2 - Ionen und von einem der ionisierten Elektronen gemessen. Anhand der durchgeführten umfangreichen Eichmessungen unter Hinzuziehung von Impuls- und Energieerhaltungssätzen lassen sich somit sämtliche Impulse der Teilchen errechnen. Somit gewinnt man Informationen über den Ionisationsprozeß. Desweiteren lassen sich multidifferentielle Wirkungsquerschnitte bestimmen, die sich mit theoretischen Modellen vergleichen lassen. Die Rückstoßionenimpulsverteilungen und die Flugzeitspektren für das He2 -Ion demonstrieren die Signifikaz der erreichten Statistik, trotz der geringen Koinzidenzrate von 17 h-1. Die Meßdaten wurden einer groben Auswertung unterzogen. Die entgültige Analyse, Ergebnisdeutung, Interpretation und Vergleich mit der Theorie fand in dieser Arbeit nicht statt. Die Projektilenergie lag bei allen Messungen bei 550 eV. Der Elektronenstrahl wurde, entgegen der vorherrschenden Meinung, mit einem Blendensystem auskollimiert. Im nächsten Schritt sollen statt mit nur einem mit zwei oder mehreren Schlitzblenden nacheinander der Elektronenstrahl auskollimiert werden, so daß die am vorderen Schlitz gestreuten Elektronen in den nachfolgenden ausgeblendet werden können. Somit verringert man die problematische Untergrundrate auf dem Elektronendetektor. Für weitere Untersuchungen werden momentan neue Spektrometerkonzepte entwickelt. Bei der Konzeption des neuen Spektrometers wird der Abstand zwischen Targetzone und Elektronendetektor größer gewählt. Dies verringert zwar den Nachweisraumwinkel für die Elektronen, aber man erreicht dadurch eine Verringerung der Untergrundselektronen. Der Verringerung des Nachweisraumwinkels kann man entgegenwirken, indem man einen großen MCP- Detektor mit 80 mm Durchmesser einsetzt. Der Eintrittsbereich des Projektilstrahls in das Rückstoßionenimpulsspektrometer sollte großzügig gewählt werden, da auf diese Art und Weise verhindert werden kann, daß der Elektronenstrahl die Potentialringe in Eintrittsbereich streift und wohlmöglich unerwünschte Sekundärelektronen erzeugt, die im Extraktionsfeld des Spektrometers auf den Elektronendetektor hin beschleunigt werden und ebenfalls für Untergrund sorgen. Eine Pulsung der Elektronenkanone über die Wehneltspannung vorzunehmen und den Puls als Start oder Trigger für die Datenaufnahme einzusetzen ist nur dann sinnvoll, wenn die Flugzeit der Elektronen um mindestens eine Größenordnung größer ist als die erreichbare Pulslänge. Nach Auskunft unserer Elektronik liegen die erreichbaren Pulslängen bei etwa 5 ns. Aufgrund der notwendigen Stabilität sowohl in der Elektronik als auch in der Kühlung des Kaltkopfes ist eine insgesamt kürzere Meßzeit erstrebenswert.
Im Rahmen der vorliegenden Arbeit wurde eine Apparatur zur Messung von Fotoströmen in Halbleitermaterialien aufgebaut und charakterisiert. Der Fotostrommeßplatz gestattet es, mit spektral hoher Auflösung Fotostromspektren mit sehr gutem Signal-zu-Rausch-Verhältnis aufzunehmen, wobei die Möglichkeit besteht, die Proben bei tiefen Temperaturen einem äußeren Magnetfeld bis 9T auszusetzen. Mit Hilfe einer elektrischen Kontaktierung auf der Probenvorder- bzw. -rückseite kann durch Anlegen einer Spannung ein variables, homogen über den intrinsischen Bereichen der Proben abfallendes, elektrisches Feld erzeugt werden. Mit Hilfe des Meßaufbaus wurden Fotostromspektren von GaAs/Al0,3Ga0,7As-Übergittern fur verschiedene elektrische und magnetische Felder aufgenommen. Unter Variation des elektrischen Feldes ohne ein zusätzliches Magnetfeld wird deutlich die sog. Wannier-Stark-Quantisierung beobachtet. Es lassen sich die vor einiger Zeit an der RWTH Aachen an identischen Probenstrukturenvorgenommenen Untersuchungen bestätigen bzw. reproduzieren. Die magnetfeldfreien Messungen dienen ferner der genauen Bestimmung des über dem Übergitter abfallenden elektrischen Feldes in Abhängigkeit von der an der Probe angeliegenden Vorspannung. Die Feldbestimmung erfordert dabei aufgrund des Einflusses der Coulomb-Wechselwirkung der Ladungstrager auf den Verlauf der Ubergange in Abhängigkeit vom elektrischen Feld eine gewisse Vorsicht. Messungen ohne Magnetfeld sind außerdem bei der Zuordnung der Übergange in den mit Magnetfeld gemessenen Fotostromspektren äußerst hilfreich. Im Rahmen dieser Arbeit wurden erstmals Fotostrommessungen an Halbleiterübergittern im magnetischen Feld durchgeführt, wobei der gleichzeitige Einfluß eines elektrischen und eines magnetischen Feldes untersucht wurde. Dazu wurde bei elektrischen Feldstärken im Wannier-Stark- sowie im Minibandbereich das äußere Magnetfeld bis 9T variiert. Im Magnetfeld zeigt sich eine deutliche Landau-Quantisierung. Die zu den Landau-Niveaus gehorenden exzitonischen Zustände der Wannier-Stark-Übergänge schieben mit steigendem Magnetfeld zu höheren Energien. In den gemessenen Spektren läßt sich eine Vielzahl von Übergangen ausmachen, die zu einem großen Teil den einzelnen Leichtloch- bzw. Schwerloch-Übergangen zugeordnet werden können. Modellrechnungen zeigen, daß man zu jedem Wannier-Stark-Übergang einen eigenen exzitonischen Landau-Facher erwarten kann, worauf es in den Messungen ebenfalls Hinweise gibt. Eine zweifelsfreie Identifikation von mutmaßlich im Magnetfeld drehimpulsaufgespaltenen Niveaus kann erst geleistet werden, wenn weitere Messungen bei definierter Polarisation des Anregungslichtes vorliegen. Aus den aufgenommenen Fotostromspektren der Übergitterproben lassen sich für spätere zeitaufgelöste Untersuchungen einige interessante Energiebereiche fur mögliche Anregungen von Quanteninterferenz-Phänomenen ableiten. Die aus den Spektren ermittelten Linienbreiten der Wannier-Stark-Übergange von 3-4 meV garantieren eine ausreichende Schmalbandigkeit für die Anregung von Bloch-Oszillationen. Die Linienbreiten sind, bis auf wenige Ausnahmen, unabhängig vom Magnetfeld, so daß keine signifikante Magnetfeldabhängigkeit der beispielsweise für Vier-Wellen-Misch-Experimente relevanten Dephasierungszeiten der Interband-Polarisation zu erwarten ist. Die Ergebnisse lassen allerdings keine Ruckschlüsse auf die Magnetfeldabhängigkeit von Intraband-Polarisationen zu.
In der vorliegenden Arbeit werden Stöße zwischen Alpha-Teilchen und Li-ähnlichen Ionen sowie Stöße zwischen vollständig ionisierten Projektilionen und dem Li-ähnlichen Ion N4+ untersucht. Hierzu wird die zeitabhängige Schrödinger-Gleichung unter Verwendung einer effektiven Einteilchenbeschreibung im Rahmen der nichtpertubativen Basis Generator Methode (BGM) gelöst.
Über die Anzahlfunktion π(x)
(1999)
Bereits Euklid wusste, dass es unendlich viele Primzahlen gibt. Euler zeigte die qualitative Aussage ¼(x) x ! 0 bei x ! 1. Legendre definierte als erster die Anzahlfunktion ¼(x) als die Anzahl aller Primzahlen · x, (x 2 R) und vermutete irrtümlicherweise, dass ¼(x) = x log(x)¡B; wobei lim x!1 B(x) = 1; 083 66 : : : ist. Gauss vermutete, dass die Funktionen ¼(x) und li(x) := lim "!0 ">0 0@ u=1¡" Z u=0 du log(u) + u=x Z u=1+" du log(u)1A asymptotisch Äquivalent sind. Tschebyschew konnte die Legendresche Vermutung widerlegen; außerdem bewies er: Wenn der Grenzwert lim x!1 ¼(x) x log(x) existiert, so muss dieser gleich 1 sein. Dank wegweisender Vorarbeiten von Riemann, gelang es im Jahr 1896 unabhängig voneinander und nahezu zeitgleich Hadamard und De La Vallee Poussin, den Primzahlsatz analytisch zu beweisen. Beide verwendeten entscheidend die Tatsache, dass die Zetafunktion ³ in der Halbebene Re(s) ¸ 1 nicht verschwindet. Die Beweise waren zuerst so lang und kompliziert, dass sie heutzutage nur noch einen historischen Wert besitzen. Es dauerte weitere 84 Jahre bis der Beweis so vereinfacht werden konnte, dass er nur wenige Seiten in Anspruch nimmt. Ein wichtiger Verdienst kommt hierbei der Arbeit von Newman aus dem Jahre 1980 zu. Lange Zeit wurde es für kaum möglich gehalten, einen Beweis des Primzahlsatzes zu finden, der ohne eine gewisse Kenntnis der komplexen Nullstellen der Zetafunktion auskommt. Und doch glückte 1948 ein solcher Beweis durch Selberg und Erdös mit elementaren Mitteln. Erwähnenswert dabei, dass der Beweis noch lange nicht einfach ist. Uns schienen die analytischen Beweise durchsichtiger zu sein. Daher haben wir in dieser Arbeit auf einen elementaren Beweis verzichtet. Der analytischen Weg zum Primzahlsatz von Newman kommt einerseits mit Integration längs endlicher Wege (und der Tatsache ³(s) 6= 0 in ¾ ¸ 1) aus, umgeht also Abschätzungen bei 1; andererseits ist er frei von Sätzen der Fourier-Analysis. Beim Beweis des Primzahlsatzes von Wolke benutzt man anstelle von ³0(s) ³(s) die Funktion ³ 1 k mit großen k. Wegen des Pols bei s=1 bringt dies bei der Integration leichte Komplikationen, hat aber den Vorteil, dass außer der Nullstellen-Freiheit keine nichttriviale Abschätzung für ³ oder ³0 erforderlich ist. Dank der elementaren Äquivalenz zwischen dem Primzahlsatz und der Konvergenz von 1Pn=1 ¹(n) n brauchte Newman nur die Konvergenz von 1Pn=1 ¹(n) n zu zeigen. Dies erreichte er mit Hilfe seines Konvergenzsatzes. Die Legendresche Formel, die auf dem Sieb des Eratosthenes basiert, erlaubt die exakte Berechnung von ¼(x), wenn alle px nicht übersteigenden Primzahlen bekannt sind. Diese prinzipielle Möglichkeit zur Ermittlung von ¼(x) ist in der Praxis natürlich stark limitiert durch die mit x rasch anwachsende Anzahl der rechts in der Legendresche Formel zu berücksichtigenden Summanden. Mit verfeinerten Siebtechniken haben verschiedene Autoren zur Legendresche Formel analoge Formeln ¼(x) ersonnen, bei denen der genannte Nachteil von Legendresche Formel sukzessive reduziert wurde. Zu erwähnen sind hier vor allem Meissel, Lehmer, sowie Lagarias, Miller und Odlyzko. Aus den Graphen von R(x)¡¼(x); li(x)¡¼(x) und x log(x) ¡¼(x) für den betrachteten Bereich x · 1018 konnten wir feststellen, dass R(x); li(x) sowie x log(x) die Anzahlfunktion Pi (x) annähern, wobei R(x) die beste Approximation für Pi(x) von allen drei ist.
Am Beispiel der erziehungswissenschaftlichen Diskussion über „Neue Medien“ wird in kulturvergleichender Perspektive der Versuch einer Rekonstruktion der latenten Diskursmuster der Pädagogik und ihrer Funktionen in Indien unternommen. Grundlage der Analyse ist dabei nach intensiven Literaturrecherchen und Expertengesprächen vor allem die Zeitschrift University News (herausgegeben von der Association of Indian Universities) als aktuelles Forum pädagogischer und bildungsrelevanter Themen. Unter Rekurs auf den Bildungsreport der UNESCO, Learning: The Treasure Within, der im pädagogischen Diskurs in Indien eine exponierte Position einnimmt, werden Kategorien zur Strukturierung entwickelt, die dann vor allem über zwei Dimensionen - Programmatik statt Forschung und Theorie und Technologieorientierung und Trivialisierung – analytisch aufgeschlüsselt werden. Die Interpretation greift dabei hauptsächlich auf systemtheoretische und konstruktivistische Ansätze zurück. Die abschließende Frage nach den Funktionen des Diskurses wird auf der Folie der Vaihinger’schen Philosophie des „As Ob“ verfolgt. Der dem Diskurs inhärente fiktionale Charakter wird dabei als generatives Muster im Rahmen von Ausdifferenzierungsprozessen des Erziehungssystems in Indien interpretiert.
Die konventionelle Extremwertstatistik die sich an der Über- bzw. Unterschreitungshäufigkeit bestimmter Schwellenwerte orientiert, beinhaltet den Nachteil, daß Änderungen der Parameter der Häufigkeitsverteilung die Extremwertwahrscheinlichkeit beeinflussen. So kann allein das Vorhandensein eines Trends für derartige Veränderungen verantwortlich sein. Die hier gewählte Methodik vermeidet diesen Nachteil, indem sie eine Zerlegung der betrachteten Zeitreihen in einen strukturierten und einen unstrukturierten Anteil durchführt. Dabei setzt sich der strukturierte Anteil aus einer Trend-, Saison- und glatten Komponente zusammen. Aus der Summe dieser in der Zeitreihe signifikant enthaltenen Komponenten läßt sich die Eintrittswahrscheinlichkeit von Extremwerten ableiten. Ähnliches gilt für den unstrukturierten Anteil insbesondere für die Varianz des Residuums. Das Residuum kann aber auch Werte enthalten, die nicht zu ihrer ansonsten angepaßten Häufigkeitsverteilung passen. Solche Werte werden als Extremereignisse bezeichnet und sind von den Extremwerten zu unterschieden. In der vorliegenden Arbeit werden nun, getrennt voneinander, durch Änderungen in den Parametern der Häufigkeitsverteilung hervorgerufene Variationen der Extremwertwahrscheinlichkeit als auch parameterunabhängige Extremereignisse der bodennahen Lufttemperatur betrachtet. Als Datenbasis dienten 41, wahrscheinlich homogene, europäische Stationszeitreihen von Monatsmitteltemperaturen, die den Zeitraum von 1871 bis 1990 abdecken. In den untersuchten Temperaturzeitreihen wurde an 37 von 41 Stationen ein positiver Trend detektiert, woraus ein Anstieg der Extremwertwahrscheinlichkeit mit der Zeit resultiert. Die glatten, niederfrequenten Schwingungen wirken sich in den meisten Fällen um 1890 und 1975 negativ und um 1871, 1940 und 1990 positiv auf die Extremwertwahrscheinlich keit aus. Desweiteren treten Änderungen in der Saisonfigur bezüglich der Amplitude und der Phasenlage auf. Detektierte Zunahmen in der Amplitude des Jahresgangs führen zu einer positiven Änderung der Extremwertwahrscheinlichkeit. Signifikante Änderungen in der Phasenlage der Saisonfigur erzeugen in den Anomaliezeitreihen einen saisonal unterschiedlichen Trend, dessen Amplitude, in den betrachteten Fällen, in der Größenordnung der Trendkomponente liegt. Saisonal unterschiedliche Trends beeinflussen saisonal unterschiedlich die Wahrscheinlichkeit für das Eintreten von Extremwerten. Die Residuen von fünf Temperaturzeitreihen weisen signifikante Varianzinstationaritäten auf, wobei in nur einem Fall die Varianz mit der Zeit zunimmt und somit einen Anstieg der Extremwertwahrscheinlichkeit erzeugt. Extremereignisse treten vorwiegend in Form besonders kalter Winter auf und können wahrscheinlich als Realisation eines Poisson-Prozesses interpretiert werden. Sie erscheinen zufällig über den Beobachtungszeitraum verteilt mit einer mittleren Wiederkehrzeit von mehr als 10 Jahren.
Die vorliegende Diplomarbeit beschreibt den Aufbau und erste Anwendungen einer neuartigen Technik zur Manipulation von Fallenpotentialen für Bose-Einstein-Kondensate. Das Dipolpotential, das ein gegen die atomare Resonanz verstimmter Laserstrahl auf die Atome ausübt, wird hierzu genutzt. Es wurde eine Apparatur aufgebaut, mit der sehr schnelle räumliche Bewegung und gleichzeitige Intensitätsänderung von Laserstrahlen erzielt wird. Durch schnelles Scannen des Laserstrahls in x- und y-Richtung und gleichzeitige Modulation seiner Intensität werden beliebige zeitgemittelte Potentiale erzeugt. Diese Potentiale wurden sowohl als räumliche und/oder zeitliche Modifikation herkömmlicher Magnetfallenpotentiale als auch als eigenständige Fallen mit neuartiger Geometrie verwendet. Mit diesem Aufbau wurden Experimente an Bose-Einstein-Kondensaten durchgeführt, bei denen die große räumliche und zeitliche Auflösung genutzt wurden. Die Speicherung von Atomen in zeitgemittelten, rotverstimmten optischen Fallen verschiedener Geometrie wurde demonstriert und eine durch das Scannen hervorgerufene Aufheizung der Probe wurde gefunden und untersucht. Dies ist die erstmalige Speicherung von Bose- Einstein-Kondensaten in zeitgemittelten Dipolfallen, deren Gestalt im Prinzip frei wählbar ist. Außerdem wurden kollektive Anregungen eines Bose-Einstein-Kondensats in einer Magnetfalle untersucht, die durch zeitgemittelte optische Potentiale induziert wurden. Der Schwerpunkt dieser Untersuchung waren insbesondere Moden mit hohem Drehimpuls, die in rein magnetischen Fallenpotentialen zuvor nicht angeregt worden waren. Bisherige Limitation von Gleichstrommagnetfallen, in denen nur zylindersymmetrische Moden angeregt werden konnten, wurden durch die Verwendung zeitgemittelten optischen Potentialen zusätzlich zum Magnetfallenpotential umgangen. In einem dritten Experiment konnte der suprafluide Charakter eines Bose-Einstein-Kondensats studiert werden. Die kritische Geschwindigkeit für die Bewegung eines Fremdobjektes duch das Kondensat wurde erstmals gemessen. Als Fremdobjekt diente ein gegen die atomare Resonanz blauverstimmter Laserstrahl, der auf die Atome ein repulsives Potential ausübt.
In dieser Arbeit wurden Untersuchungen zur Einstellung und Analyse des Sauerstoffgehalts an YBa2Cu3O6+x-Dünnfilmen durchgeführt. Zur Analyse des Sauerstoffgehalts wurde ein optisches Verfahren angewendet. Durch Messung der Transmission un der Reflektion in einem Spektralbereich von 2000nm bis 3000nm wird mit Hilfe des im Rahmen dieser Arbeit erstellten Markov-Modells die optische Leitfähigkeit bestimmt. Aus den gewonnen Werten der optischen Leitfähigkeit kann so auf den Sauerstoffgehalt in YBa2Cu3O6+x geschlossen werden.
Der Ansatz des Infrastruktur-Netzwerkes bietet eine Möglichkeit, das Entstehen von Netzwerken und die Abhängigkeit von bestimmten Einflüssen auf die Struktur nachzuvollziehen. Trotz der komplexen Struktur scheinen dezentrale Ansätze ihre Berechtigung zu haben. Das deutlich schlechtere Abschneiden des statischen Ansatzes zeigt, wie wichtig Kommunikation zwischen den Akteuren ist. Da die umfangreiche Kommunikation trotz des recht einfachen Entscheidungsverhaltens gute Ergebnisse erzielt, wäre zu untersuchen, wie weit man bei Einschränkung der Kommunikation durch bessere Entscheidungsregeln ähnlich gute Ergebnisse erzielen kann. Die Frage, wie gut ein statischer Ansatz sein kann, ist sicher nicht endgültig beantwortet. Ob jedoch rein statische Ansätze ein realistisches Szenario darstellen und untersucht werden sollten, ist eine Frage, die hier nicht beantwortet werden kann. Das sehr gute Abschneiden von reinen Verbesserungsverfahren lässt auf eine relativ homogene Nachbarschaftsstruktur schließen. Des weiteren war zu beobachten, dass in größeren Netzen der relative Verlust durch Fehlentscheidungen tendenziell geringer ausfällt. Ein Ursache könnte sein, dass die zunehmende Dichte von Netzwerken zu Bündelungseffekten bezüglich der Transportleistungen führen. In einem nächsten Schritt wäre es interessant, intelligentere Entscheidungsregeln von Agenten in einem solchen Umfeld zu testen. Durch geeigneten Einsatz dieser ’internen Intelligenz’ bei eingeschränkter Kommunikation, ist es vielleicht möglich, zu schnelleren und effizienteren Lösungen zu finden, als es mit diesem Ansatz möglich war.
Es wurde eine Apparatur zur Messung von Heliumdoppelionisation durch Elektronenstoß, kurz (e,3e) genannt, aufgebaut. Die Aufgabe bestand im Aufbau eines Jetsystems mit horizontalem Jet, der Konstruktion eines Impulsspektrometers, das speziell auf die Anforderungen von (e,3e) ausgerichtet ist, dem Aufbau einer Kompensation für das Erdmagnetfeld, dem Test der einzelnen Komponenten und der Aufnahme von Orts- und Flugzeitspektren. Im Rahmen der Testmessungen konnte die Linearität der Detektoren überprüft werden, auch wurde ein Programm für die Ortsauslese der Hexanode geschrieben, des weiteren wurde der Elektronenstrahl fokussiert und der Jet eingestellt, so daß das Flugzeitspektrum zwischen Targetelektron und Rückstoßion und zwischen Projektil und Rückstoßion aufgenommen werden konnte. Anhand des Flugzeitspektrums zwischen Projektil und Rückstoßion wurde die Impulsverteilung der einfachgeladenen Heliumionen in Richtung der z-Achse bestimmt. Jedoch hat sich herausgestellt, daß die Impulsverteilung der Heliumionen vom Jet von der noch größeren Impulsverteilung der Atome vom warmen Heliumgas überlagert wird. Anhand des Rückstoßionendetektor-Ortsbildes konnte die Impulsverteilung der Heliumionen in x- und y-Richtung angegeben werden, da sich das warme Heliumgas im Restgasionisationsstreifen befindet und somit klar von Jetfleck zu trennen ist. Um für die wissenschaftliche Forschung verwertbare (e,3e)-Messungen an der Apparatur durchführen zu können, müssen einige zusätzliche Arbeiten vorgenommen werden; wie die Kalibrierung der beiden Spektrometer. Das ist notwendig für die Ermittlung der Zuordnungsfunktion zwischen Auftrefforten und -zeiten auf den Detektoren und den jeweiligen Impulskomponenten. Das Simulationsprogramm SIMION kann zwar Trajektorien von unterschiedlich geladenen Teilchen bei einem gegebenen Feld berechnen, jedoch können diese simulierten Werte um bis zu 10% von der „Realität“ abweichen. Des weiteren ist es notwendig, den Nullpunkt, also den Koordinatenursprung der Detektoren zu ermitteln, um die genauen Impulsvektoren bestimmen zu können. Ohne diese Kalibrierung können die ermittelten Impulsverteilungen der Rückstoßionen und Targetelektronen quantitativ nicht angegeben werden. Bei den Testmessungen hat sich gezeigt, daß der Elektronenstrahl divergent ist. Durch weitere Testmessungen an der Elektronenkanone muß das Problem behoben werden, da sonst die Energieauflösung des Projektilspektrometers nicht ausreichend ist....
Zunächst wurde die Notwendigkeit von Schemaänderungen erläutert und verschiedene Ansätze aus der Literatur beschrieben, Schemaänderungen in laufenden Systeme so durchzuführen, dass eine möglichst einfache und automatisch stattfindende Konvertierung der betroffenen Datenobjekte erfolgen kann. Beim Vergleich erweist sich das Konzept der Schemaversionierung als die leistungsfähigste Lösung. Der Grundgedanke der Schemaversionierung ist, durch jede Schemaänderung eine neue Schemaversion zu erstellen, wobei die alte Schemaversion weiterhin benutzt werden kann. Die Datenobjekte liegen ebenfalls in mehreren Versionen vor und die Schemaänderung wird auf Objektebene nachempfunden, indem Datenänderungen propagiert, d.h. die Daten automatisch konvertiert werden. Für die Propagation werden die Beziehungen zwischen den Schemaversionen ausgenutzt. Mit dem Konzept der Schemaversionierung ist es möglich, mehrere Versionen eines Schemas parallel zu benutzen und nur die auf die Datenbank zugreifenden Applikationen anzupassen, die auch wirklich von der Schemaänderung betroffen sind. Diese Diplomarbeit ist Teil des COAST-Projekts, das die Schemaversionierung als Prototyp umsetzt. In COAST existierte vor dieser Diplomarbeit nur die Möglichkeit, einfache Schemaanderungen durchzuführen. Neu wurden komplexe Schemaanderungsoperationen eingeführt und das Konzept der Propagation entsprechend erweitert. Komplexe Schemaänderungen unterscheiden sich von einfachen Schemaänderungen dadurch, dass sie Attribute aus mehreren Quellklassen in einer Zielklasse (oder andersherum) vereinen können. Die bereits in kurz angeschnittenen Default-Konvertierungsfunktionen wurden genauer untersucht und konkret eingeführt. Es wurden mehrere typische Schemaänderungsoperationen vorgestellt und darauf untersucht, ob sie mit den bisherigen einfachen Schemaänderungsoperationen durchführbar waren oder ob dazu komplexe Schemaänderungsoperationen nötig sind. Außerdem wurde analysiert, ob das System für die entsprechenden Operationen automatisch sinnvolle Defaultkonvertierungsoperationen generieren kann oder ob ein Eingriff des Schemaentwicklers notwendig ist. Dazu wurden sie in eine von vier Kategorien eingeteilt, die aussagen, ob einfache oder komplexe Schemaänderungsoperationen nötig sind und ob sinnvolle Default-Konvertierungsfunktionen ohne Eingriff des Schemaentwicklers erzeugt werden können oder nicht. Zu jeder der aufgezahlten Schemaänderungsoperationen wurde die entsprechende vom System erzeugte Default-Konvertierungsfunktion aufgeführt und im Falle, dass sie der Schemaentwickler uberprüfen muss, angegeben, wo noch potenzieller Bedarf für manuelle Änderungen vorliegt. Die Auswirkungen der Einführung von komplexen Schemaänderungsoperationen auf die Propagation wurde im nächsten Kapitel analysiert und dabei festgestellt, dass das bisherige Konzept der Propagationskanten zwischen je zwei Objektversionen desselben Objekts nicht mehr ausreicht. Entsprechend wurde das neue Konzept von kombinierten Propagationskanten entwickelt, das Kanten zwischen mehr als nur zwei Objektversionen zulässt. Dazu wurden verschiedene Lösungsmöglichkeiten miteinander verglichen. Weiter wurden verschiedene Ansätze fur die Darstellung und Speicherung von Konvertierungsfunktionen vorgestellt und entschieden, die Konvertierungsfunktionen konkret in textueller Darstellung in den Propagationskanten zu speichern. Fur die Spezifizierung der gewünschten Konvertierungen bei der Propagation wurde eine Konvertierungssprache entwickelt und nach verschiedenen Gesichtspunkten konzipiert. Diese Gesichtspunkte umfassen sowohl den nötigen Funktionsumfang der Sprache wie auch entwurfstechnische Aspekte. Sämtliche Befehle der entwickelten Sprache wurden detailliert vorgestellt und abschließend die Sprache in BNF (Backus-Naur-Form) präsentiert. COAST ist inzwischen als Prototyp implementiert und wurde u.a. auf der CeBIT '99 vorgestellt (s. [Lau99b] und [LDHA99]). Nach einer Beschreibung der Funktionsweise und des Aufbaus von COAST und insbesondere des Propagationsmanagers wurden einige Implementierungsdetails vorgestellt und verschiedene Betrachtungen zur moglichen Optimierung beschrieben. Die Ziele der Diplomarbeit wurden damit erreicht: Die Schemaevolution kann mit den Vorzügen der Versionierung durchgeführt werden. Komplexe Schemaänderungen sind nun möglich und wurden ins Modell integriert. Die Propagation wurde entsprechend erweitert und eine Sprache zur Spezifikation der Propagation entwickelt.
HADES ist ein hochauflösendes Dielektronenspektrometer, welches derzeit an der GSI in Darmstadt aufgebaut wird. Ziel ist die Messung von Leptonenpaaren, die in schwerioneninduzierten Reaktionen entstehen. Die invariante Masse der Leptonenpaare soll mit einer Genauigkeit von ~ 1% bestimmt werden. Das HADES-Detektorsystem verwendet Vieldraht-Proportionalkammern zur Rekonstruktion der Teilchenspuren. Aus diesen werden in Verbindung mit der Feldinformation des supraleitenden Magneten die Teilchenimpulse gewonnen, welche wiederum in die invariante Masse eingehen. Über die Driftzeit1 werden die genauen Durchstoßpunkte der Teilchenbahnen durch die verschiedenen Ebenen der Driftkammern erhalten. Dazu ist es erforderlich, die Driftgeschwindigkeit der Elektronen im verwendeten Zählgas zu kennen. Änderungen im Mischungsverhältnis des Zählgases (Helium und Isobutan), aber auch Verunreinigungen des Gases (H2O) können die Driftgeschwindigkeit beeinträchtigen. Verunreinigungen (O2) können weiterhin die Effizienz der Driftkammern verschlechtern. Ziel war deshalb der Aufbau eines Monitorsystems, welches auf Änderungen der Gasmischung und auf eventuelle Kontaminationen (im wesentlichen O2 und H2O) sensitiv ist. Zu diesem Zweck wurde ein Driftgeschwindigkeitsmonitor getestet. Er erlaubt eine Messung der Driftgeschwindigkeit mit einer Genauigkeit von bis zu 0,1% (sigma), allerdings bei anderen elektrischen Feldstärken als in den HADES Driftkammern. Während der einwöchigen Strahlzeit im Mai 2000 wurde die Driftgeschwindigkeit mit dem Prototypen des Driftgeschwindigkeitsmonitors gemessen. Die druckkorrigierte Driftgeschwindigkeit erlaubt Rückschlüsse auf die Gasqualität. Die Messungen ergaben, daß die Ortsauflösung in den HADES Driftkammern nicht von Driftgeschwindigkeitsschwankungen dominiert wird. Eine Extrapolation der Meßergebnisse auf die in den HADES Driftkammern vorherrschenden Feldstärkeverhältnisse ist möglich. Eine relative Signalhöhenmessung ist sensitiv auf den Sauerstoffgehalt des Zählgases bis in den ppm-Bereich. Zwei endgültige Versionen des Driftgeschwindigkeitsmonitors wurden aufgebaut und in das HADES Detektorsystem integriert. Je ein Driftgeschwindigkeitsmonitor wurde am Gasein- und am Gasausfluß aufgestellt, um die Driftgeschwindigkeit dort zu messen und Vergleiche zwischen Frischgas und aus den Kammern ausströmendem ”alten“ Gas zuzulassen. Die Auslese und Datenanalyse des Monitorsystems wurde automatisiert.
Mit Hilfe von Torsionsexperimenten in einem Temperaturbereich von 350° C bis 470° C und einer Anregungsfrequenz von 2*10^{-3} bis 20 Hz ist der komplexe Schermodul G* von Lithiumdisilikatgläsern, welche sich durch einen unterschiedlichen Kristallgehalt auszeichnen (4 Proben, Kristallgehalt: Glas 0=0%, Glas 1=19%, Glas 3=22% und Glas 5=27%), gemessen worden. Hierdurch können weitere rheologische Eigenschaften der Gläser wie der Dämpfungsfaktor \( Q^{-1}, die Viskosität eta und die Aktivierungsenergie E_{alpha} einer Diffusion ermittelt werden. Die Auswertung der Rohdaten des Betrages des komplexen Schermoduls G* und der dazugehörigen Phasenverschiebung phi der Glasproben zeigen eine Zunahme des jeweiligen Wertes bei Erniedrigung der Frequenz und Erhöhung der Temperatur bei steigendem Kristallgehalt. Dies ist dadruch erklärbar, daß ein effektives Schermodul gemessen wird, welches sich aus dem Schermodul der Glasschmelze und dem Schermodul der Kristalle zusammensetzt. Bei Erhöhung der Temperatur erweicht die Glasschmelze langsam, während die Kristalle gegenüber der Glasschmelze hart bleiben. Dies führt zu einem effektiv höheren Schermodul. In den Rohdaten ist bei allen Glasproben die gleiche lineare Zunahme des Dämpfungsfaktors Q^{-1} mit Erniedrigung der Anregungsfrequenz und Erhöhung der Temperatur festzustellen. Somit kann gesagt werden, daß Q^{-1} bei diesen Temperaturen und Anregungsfrequenzen unabhängig vom Kristallgehalt ist. Die gemessenen Werte von Q^{-1} liegen in einem Bereich von 1-0,001. Diese lineare Zunahme bleibt bis hin zu einer Temperatur von 456°C bei Glas 0 und 470°C bei Glas 5 erhalten. Erst dann zeigt sich in einem Anregungsfrequenzbereich von \( 2*10^{-3} - 10^{-2} Hz eine leichte Änderung von Q^{-1} mit steigendem Kristallgehalt. Bedingt durch die Schranken, daß nicht bei höheren Temperaturen als 470°C gemessen werden darf und daß die minimale Anregungsfrequenz der Torsionsmaschine bei 2*10^{-3} Hz liegt, kann diese Änderung in Q^{-1} nicht weiter untersucht werden. Der in der Seismologie interessante Bereich, welcher bei Q^{-1} < 0,01-0,001 liegt, konnte bei diesen Experimenten nicht erreicht werden, da die technischen Voraussetzungen der Torsionsmaschine nur eine genaue Messung von Q^{-1}\approx 0,01 erlauben. Vorliegende Meßdaten, die ein kleineres Q^{-1} als 0,01 aufweisen, streuen zu sehr und sind somit für eine verläßliche Aussage für die Seismologie unbrauchbar. Mit Hilfe des Verfahrens der Masterkurven konnte gezeigt werden, daß sich die rheologischen Eigenschaften von Lithiumdisilikatglas nicht durch einen Maxwell-Körper beschreiben lassen sondern hierzu ein generalisierter Maxwell-Körper nötig ist. Die voneinander unabhängigen Berechnungen der Aktivierungsenergie aus dem Dämpfungsfaktor Q^{-1} und aus den Masterkurven zeigen innerhalb der Fehlerschranken keine Veränderung der gemessenen Werte der Aktivierungsenergie auf. Die Werte sind jedoch fast um die Hälfte kleiner als der in der Literatur angegebene Wert. Es ist ein Verfahren entwickelt worden, welches unter gewissen Voraussetzungen mit Hilfe des Konzeptes der Masterkurven eine Bestimmung einer unbekannten Viskosität eines viskoelastischen Materials bei der Temperatur \( \widetilde{T} \) in Abhängigkeit des Kristallgehaltes ermöglicht. Voraussetzung zur Bestimmung der unbekannten Viskositäten bei unterschiedlichen Kristallgehalten ist es, daß zumindest eine Viskosität bei der Temperatur \( \widetilde{T} \) und ein Kristallgehalt bekannt sind und daß sich die Form des Spektrums des generalisierten Maxwell-Körpers, der das Glas beschreibt, bei einer Variation des Kristallgehaltes nicht verändert. Des weiteren konnte gezeigt werden, daß die Einstein-Roscoe-Formel, welche die effektive Viskosität einer Flüssigkeit in Abhängigkeit der Kristallgeometrie und des Kristallgehaltes beschreibt (15), auch auf die Lithiumdisilikatglasproben, welche einen unterschiedlichen Kristallgehalt jedoch weniger als 30% aufweisen, anwendbar ist.
Diese Arbeit befasst sich mit der Zerlegung von Irrfahrten und Lévy Prozessen an ihrem Minimum. Bis auf rudimentäre Vorkenntnisse der höheren Stochastik und einige wenige aber wichtige Sätze stellt die Arbeit alle notwendigen Begriffe und Sätze zur Verfügung, die für das Verständnis und die Beweise benötigt werden. Diese bewusste Entscheidung zur Ausführlichkeit auch bei grundlegenden Dingen hat zwei Hintergründe: Zum einen bleibt die Arbeit damit auch für Leser mit geringen Vorkenntnissen interessant, und zum anderen entsteht so keine lange und unübersichtliche Kette von Verweisen und Zitaten, die das Verständnis des dargestellten Themas erschwert und die logischen Schlüsse nur noch von Spezialisten vollständig nachvollzogen werden können. Ein weiterer Nebeneffekt ist die Tatsache, dass Verwirrungen aufgrund unterschiedlicher Interpretationen eines Begriffs vermieden werden. Das weitere Vorwort teilt sich in zwei Abschnitte; zum einen in den Abschnitt der Irrfahrten und zum anderen in den Abschnitt der Lévy-Prozesse. Diese Einteilung spiegelt auch die Strukturierung der Arbeit selber wieder; ein Blick in das Inhaltsverzeichnis verrät, dass zuerst Irrfahrten und danach Lévy Prozesse behandelt werden.
Im Rahmen dieser Arbeit wurden Zellulare Neuronale Netzwerke (CNN) zur nichtlinearen Signalanalyse bei der Prädiktion hirnelektrischer Signale bei Epilepsie herangezogen. Die invasiven Aufnahmen hirnelektrischer Aktivität liegen zeitlich diskretisiert vor, sodaß ein zeitdiskretes Netzwerk (DTCNN) eingesetzt werden konnte. Die parallele Struktur von CNN konnte zur simultanen Untersuchung von sechs Elektroden genutzt werden, mit denen die hirnelektrische Aktivität aufgenommen wurde. Insbesondere ist die direkte Wechselwirkung der einzelnen Zellen untereinander durch eine lokale Nachbarschaft gegeben. In den durchgeführten Untersuchungen wurde zunächst festgestellt, daß für ein DTCNN, das ausgehend vom aktuellen Zeitpunkt den Signalwert des nächsten Zeitpunktes prädizieren soll, eine Prädiktionsordnung größer als zwei keine wesentliche Minimierung des Prädiktionsfehlers nach sich zieht. Daher wurde ein DTCNN mit zeitlich verzögerten Zellzuständen eingesetzt, wobei die Definitionsweise von Roska und Chua [21] im Rahmen dieser Arbeit für beliebige Prädiktionsordnungen erweitert wurde. Da bei einer Prädiktionsschrittweite größer als eins eine deutliche Erhöhung des Prädiktionsfehlers festgestellt werden konnte, wurde diese im folgenden gleich eins gewählt. Weiterhin wurde festgestellt, daß bei Verwendung polynomialer Kopplungsfunktionen der Grad der Nichtlinearität gleich drei gewählt werden kann, da eine weitere Erhöhung des Grades der Nichtlinearität zu keineren weiteren Minimierung des Prädiktionsfehlers geführt hat. Im Rahmen dieser Arbeit wurde ein Programm entwickelt, das aus den Aufnahmen der hirnelektrischen Aktivität einzelne Elektroden extrahieren kann, sodaß die Meßwerte dem DTCNN präsentiert werden konnten. Mit Hilfe des zugrundegelegten DTCNN konnte der zeitliche Verlauf der hirnelektrischen Aktivität von sechs Elektroden simultan prädiziert werden. Eine Analyse des zeitlichen Verlaufes des Prädiktionsfehlers ließ vor einem epileptischen Anfall keine signifikanten Änderungen erkennen. Daher wurde ein Programm entwickelt, mit dessen Hilfe der zeitliche Verlauf der Parameter des verwendeten DTCNN analysiert und deutliche Änderungen aufgezeigt werden können. Es konnten Berechnungsmethoden, hier die lokale Mittelwertbildung und die Gradientenberechnung, gefunden und an den jeweils untersuchten Patienten angepaßt werden, sodaß diese Änderungen der Parameter deutlicher hervorgehoben wurden. Bei zwei der vier Patienten konnten signifikante Änderungen des zeitlichen Verlaufes der Parameter des untersuchten DTCNN festgestellt werden, die vor dem Auftreten des epileptischen Anfalls liegen und somit als Vorläufer eines epileptischen Anfalls betrachtet werden können. Die Untersuchung eines dritten Patienten zeigte deutliche Änderungen der analysierten Parameter, die zeitlich mit dem Beginn des epileptischen Anfalls übereinstimmen. Bei einem vierten Patienten konnten signifikante Änderungen des zeitlichen Verlaufes der Parameter vor dem epileptischen Anfall nur dann festgestellt werden, wenn der betrachtete Datensatz hirnelektrischer Aktivität während des Auftretens eines Anfalls aufgenommen wurde. Wurde stattdessen die Aufnahme von zwei epileptischen Anfällen, die kurz hintereinander auftraten, analysiert, so konnten keine signifikanten Änderungen des Verlaufes der Parameter gefunden werden.
In dieser Arbeit wurde die Produktion negativ geladener Pionen in zentralen Blei+Blei Kollisionen bei 40 A·GeV am CERN SPS mit dem Experiment NA49 untersucht. Die Analyse der Pionen basiert auf der Tatsache, das sie ungefähr 90% des hadronischen Endzustands aller negativ geladenen Hadronen darstellen, wobei der Rest hauptsächlich aus Kaonen besteht. Diese Analyse deckt die komplette vordere Hemisphäre ab, somit wurden keinerlei Extrapolationen benötigt. Für diese Analyse wurde ein komplett neuer Satz von Schnitten in diversen Variablen der Daten von NA49 gesucht und optimiert. Um einen möglichst gut bestimmten Satz von Spuren zu verwenden, wurde nur ein kleiner Teil aller Spuren verwendet, der aber exakt und einfach zur vollen Akzeptanz zurückkorrigiert werden kann. Um die Spuren aus Zerfällen nahe am Hauptinteraktionspunkt und um Dreckeffekte wie γ-Konversion oder Vielfachstreuung zu entfernen, wurde ein komplett neuer Korrekturalgorithmus entwickelt und getestet. Da bei dieser Energie die Spurmultiplizitäten ungefähr um einen Faktor zwei kleiner sind, wurde beobachtet, daß Ineffizienzen in der Rekonstruktion eine untergeordnete Rolle spielen. Hier wurde im Mittel eine Korrektur von 8% verwendet. Um Spektren negativer Pionen zu erhalten, müssen die negativ geladenen Kaonen aus dem Spursatz entfernt werden, hierfür wurde eine Simulation aufgebaut und eingesetzt. Ein großes Problem stellt die Abschätzung des Systematischen Fehlers dar, da es eine Mannigfaltigkeit von Fehlerquellen gibt. In dieser Arbeit wurden zwei Methoden angewandt, um den Systematischen Fehler abzuschätzen. Das Ergebnis der hier vorgestellten Analyse ergibt eine mittlere Multiplizität für die negativen Pionen von 320±14. Die Präsentation eines vorläufigen Zustands dieser Analyse in Kombination mit den neu gewonnen Kaonwerten [1] vor dem SPSC [2] veränderten den vorhandenen Strahlzeitplan nachhaltig, so daß in extrem kurzer Zeit nach ieser Präsentation eine Energieabtastung gestartet wurde. Schon ein paar Monate später bekam NA49 hierfür einen Bleistrahl bei der Energie von 80 A·GeV und wird im Jahr 2002 auch Energien von 20 und 30 A·GeV geliefert bekommen. Auch wurden diese Daten auf der QM2001 als vorläufige Ergebnisse präsentiert. Desweiteren bilden die Ergebnisse, sowie die aus der 80 A·GeV Analyse und denen bei Top-SPS Energie gewonnenen kombiniert mit den Kaonergebnissen bei den gleichen Energien die Grundlage für ein Physical Review Letter der NA49-Kollaboration zum Thema der Energieabhängigkeit des K+/π + Verhältnis. Die Motivation für diese Arbeit war die Suche nach einer Evidenz des Quark-Gluon-Plasma und bei der analysierten Energie wurde der Übergang in diese Phase vorhergesagt [3]. Man sollte einen Wechsel von der Pionunterdrückung zur Pionvermehrung im Vergleich mit den Daten aus Nukleus+Nukleus Experimenten in dem Verhältnis der mittleren Pionmultiplizität zu der Anzahl der Teilnehmenden Nukleonen beobachten. Diese Vermutung stellte sich als richtig heraus. Diesen Wechsel kann man erklären, wenn man einen Phasenübergang zu einer Phase quasifreier Quarks und Gluonen in diesem Bereich annimmt. Die Pionen stellen, aufgrund ihrer geringen Masse, die häufigsten Teilchen dar und sind somit auch eine gute Meßprobe für die gesamte Entropie des Feuerballs. Da die Anzahl der Freiheitsgrade in einem QGP massiv ansteigen muß, sollte man eine erhöhte Produktion von Pionen beobachten. Der Meßpunkt bei 40 A·GeV liegt genau in dem Bereich des Wechsels. Ein Vergleich mit den Modellen zeigt, das kein Modell, wenn es überhaupt Pionen beschreiben kann, die Produktion von Pionen korrekt wiedergibt, außer das „Statistical Modell of the early Stage“, das die Pionproduktion beschreibt und auch den Wechsel von Pionunterdrückung zu Pionvermehrung im Bereich um 40 A·GeV wiedergibt. Dieses Modell besitzt eine Phasenübergang von gebundener Materie zum QGP. Das Hadrongas-Modell kann die Pionen bei jeder Energie beschreiben, aber eine Vorhersage ist nicht möglich, da die Pionen als Eingabe in dieses Modell benötigt werden. Die Ergebnisse von NA49 haben neuen Schwung in die Erklärung von Schwerionenkollisionen und die Suche nach dem QGP gebracht. Die ersten „Resultate“ sind eine Energieabtastung am CERN-SPS und diverse Änderungen an vorhandenen Modellen, um vor allem das nichtmonotonische Verhalten des K+/Pi + Verhältnisses zu beschreiben. Bis jetzt existiert kein Modell und keine Erklärung, die die Daten beschreibt und auf anderen Hadronischen Erklärungen basiert. Somit kann man feststellen, daß eine sich erhärtende Evidenz für die Produktion des QGP am CERN-SPS vorhanden ist.
Entwurf und prototypische Realisierung einer Architektur zur flexiblen Verschlüsselung von XML-Daten
(2001)
Im Rahmen dieser Arbeit ist auf Basis einer sorgfältigen Prüfung existierender Literatur zu kryptografischen Verfahren und sowohl einer Analyse bestehender Ansätze zur Verschlüsselung von XML-Dokumenten, als auch unter Nutzung bestehender Standards für XML-Technologien, eine Architektur zur flexiblen Verschlüsselung von XML-Daten erstellt worden. Ausgehend von Einsatz-Szenarien wurden dazu Anforderungen an das gewünschte System definiert. Anhand dieser Anforderungen wurde systematisch eine vollständige Spezifikation zur Verschlüsselung von XML-Daten hergeleitet. Weiterhin ist eine erweiterbare und generische Architektur zur Verarbeitung von XML-Daten spezifiziert worden. Auf dieser aufbauend, wurde eine Architektur für die flexible Ver- und Entschlüsselung von XML-Daten erstellt. Diese Architekturen und ihre Komponenten sind generisch, wobei für die prototypische Realisierung exemplarisch eine konkrete Auswahl dieser Komponenten implementiert wurde. Für die Verschlüsselung wurde dazu auf die zuvor erstellte Spezifikation zurückgegriffen und deren relevante Teile implementiert. Anschliessend wurden Experimente durchgeführt, die einen Eindruck von der Leistungsfähigkeit der Architektur gegeben haben. Insgesamt haben sich die Erwartungen an die Architektur mehr als erfüllt. Stehen Transformationen als verwendbare Klassen bereit, die auf dem DOM operieren, so ist es leicht möglich, diese in das DPF einzubetten, wie z.B. beim Verschlüsselungs-Prozessor geschehen. Damit ist eine sehr gute Erweiterbarkeit gegeben. Da die Arbeitsweise eines Transformations-Prozessors sowohl direkt durch übergebene Argumente aus dem DPS als auch durch die Verwendung von Annotationen gesteuert werden kann, kann die Verarbeitung von Dokumenten sehr flexibel und auch feingranular erfolgen. Die Möglichkeit, Annotationen aus mehreren DAS-Dokumenten zu aggregieren, erlaubt eine verteilte Pflege dieser Dokumente. Mit der Möglichkeit, mehrere Prozessoren direkt nacheinander eine Eingabe bearbeiten zu lassen, wird die Flexibilität nochmals gesteigert. Denn wenn die Prozessoren als Komponenten zur Verfügung stehen, können diese stets aufs Neue kombiniert werden. Vor allem der Ansatz, dass alle zur Verarbeitung und Steuerung relevanten Daten in Form deklarativer Beschreibungen erfolgen, die den Bedürfnissen jedes Prozessors angepasst sind, macht das System zu einem mächtigen Instrument. Zudem werden dadurch keine tiefergehenden Programmierkenntnisse benötigt. So entfällt auch die Notwendigkeit, Änderungen des gewünschten Transformations-Ergebnisses durch Änderungen im Quelltext des erzeugenden Programms vorzunehmen. Dadurch sind insgesamt den Möglichkeiten zur Verarbeitung von XML-Dokumenten kaum Grenzen gesetzt. Notwendige Anpassungen bleiben zumeist auf eine oder wenige Komponenten beschränkt, was Änderungen leichter ermöglicht. Dabei hat sich wieder einmal der flexible und trotzdem mächtige Ansatz der Kette von Werkzeugen (Chain of Tools) bewährt. Auch die Spezifikation zur Verschlüsselung von XML-Daten konnte alle Erwartungen erfüllen. Alle eingangs gestellten Anforderungen sind damit ausnahmslos darstellbar. Insbesondere betrifft dies die partielle und feingranulare Verschlüsselung von XML-Daten, sowie die hierarchische und damit einhergehende Super-Verschlüsselung. Rückblickend kann gesagt werden, dass das wissenschaftliche Fundament in Form von kryptografischen Grundlagen zwar sehr gut ist, aber die darauf aufbauenden höherwertigen Dienste und Architekturen aus wissenschaftlicher Sicht bisher kaum Beachtung gefunden haben. So wird zwar die Verschlüsselung von ganzen Daten-Objekten zwischen zwei Empfängern gut beherrscht, aber eine feingranulare Verschlüsselung, bei der Daten an grosse dynamische Empfängergruppen in offenen Systemen vertraulich übermittelt werden, hat bisher keine Beachtung gefunden. In der vorliegenden Arbeit werden diese Probleme adressiert, wobei aber nicht für alle eine abschliessende Lösung präsentiert werden konnte, da dies den Rahmen der Arbeit gesprengt hätte. Vielleicht ist es gerade die fehlende wissenschaftliche Durchdringung, die es so schwierig macht, geeignete Standards für die Verschlüsselung von XML-Dokumenten zu etablieren. Denn wenn man betrachtet, wie lange schon beim W3C über die Verschlüsselung diskutiert und daran gearbeitet wird, so kann es einen nur verwundern, dass nicht greifbarere Ergebnisse vorliegen. Ende Juli, also kurz vor Abschluss der vorliegenden Arbeit, ist bei Recherchen noch ein wissenschaftlich fundierteres Papier aufgetaucht, das auf einer Konferenz im Juni dieses Jahres vorgestellt wurde. Es beschreibt eine Document Security Language (DSL), die auf XSLT beruht und eine Architektur zur Verschlüsselung von XML-Dokumenten [85]. Da die Nähe zu dieser Arbeit gross ist, soll sie hier noch kurz vergleichend betrachtet werden. Die dort beschriebene Architektur und die Sprache bietet auch die Verschlüsselung auf feingranularer Ebene. Aber sie ist nicht erweiterbar und kennt auch kein generisches Meta-Daten-Konzept, so dass sie hinter den Ergebnissen der vorliegenden Arbeit deutlich zurückfällt. Zudem beruht sie auf der vorne schon im Zusammenhang mit der Verwendung von XSLT kritisierten Arbeit in [48]. Sie trägt dazu im Bereich der Verschlüsselung nicht viel Neues bei. Allerdings weist sie einige interessante Ansätze im Bereich der Infrastrukturen auf [85, Abschnitt 3.2]. Um diese könnte die hier vorgestellte Architektur der Verschlüsselungs-Prozessoren ergänzt werden, denn dieses Gebiet wurde in der Arbeit ausgespart.
Im Rahmen der vorliegenden Arbeit wird eine systematische Untersuchung von Feldabschirmungseffekten bei Photostrommessungen in Abhängigkeit der optischen Anregungsdichte an GaAs/AlGaAs{Halbleiterubergitterstrukturen vorgenommen. Diese Untersuchungen gestatten es, Kontaktierungsmethoden zu finden, um das elektrische Feld innerhalb der Übergitterstruktur definiert einzustellen. Diese Untersuchungen waren notwendig geworden, da sowohl erste zeitaufgelöste (z.B. die THz-Emission von Bloch-Oszillationen), wie auch verschiedene nicht zeitaufgelöste Messungen (z.B. differentielle Elektroreflexionsmessungen) nahelegten, daß in der Probe kein elektrisches Feld einzustellen war. Die Untersuchungen zur anregungsdichteabhangigen Feldabschirmung wurden in einem Photostromaufbau durchgeführt, bei dem die Anregungsdichte durch die Verwendung eines abstimmbaren CW-Ti:Saphir Laser gegenüber Aufbauten mit einer Kombination aus Lampe und Monochromator weiter gesteigert werden kann. Als Indikator für die Feldabschirmung dient die Herausbildung der Wannier-Stark-Leiter in den Photostromspektren. Zur Untersuchung der Feldabschirmung wurde zunächst die Probenpraparation verändert. Anschließend wurde die Anregungsdichte systematisch variiert und es wurden verschiedene Probenstrukturen untersucht, unter anderem zum Vergleich mit den hier pin-Übergitter Dioden auch eine häufig verwendete Schottky-Diode. Es wurden verschiedene präparative Variationen durchgeführt, um den Einfluß der dotierten Schichten zu klären. So wurde beispielsweise die p+-Schicht heruntergeätzt, oder auf die p+-Schicht eine zusätzliche metallische semitransparente Cr/Au-Schicht aufgedampft, sowie Proben mit verschiedenen Dotierungsmaterialien (Berylium und Kohlenstoff) untersucht. Alle betrachteten Proben zeigen bei niedrigen Anregungsdichten eine Aufspaltung in Wannier-Stark-Zustände. Die Absorptionslinien, die in den Spektren die Übergänge darstellen, werden dann bei steigender Anregungsdichte zunächst asymmetrisch, treten erst bei niedrigeren äußeren Vorspannungen auf und verschwinden schließlich für sehr hohe Dichten ganz. Eine Analyse der systematischen Untersuchungen für die verschiedenen Probentypen ergibt, daß sich höchstwahrscheinlich Ladungstrager in der p+-Schicht ansammeln und so das äußere elektrische Feld abschirmen. Zusätzlich zeigt im Vergleich der zwei Dotierungsmaterialien die mit Kohlenstoff dotierte Probe eine bei deutlich höheren Anregungsdichten einsetzende Abschirmung gegenüber der mit Berylium dotierten Probe. Die konsequente Umsetzung der gewonnenen Erfahrungen führt zu einem neuen Probendesign. Die Vermeidung p+-dotierter Schichten, wobei die Proben nur mit einer semitransparenten Cr/Au-Schicht bedampft werden, hat dazu geführt, daß es schließlich möglich war, die kohärente Emission von Bloch-Oszillationen unter 45 ° zu messen. Weiterhin war es auch möglich, erste Messungen zur kohärenten Detektion der direkten Emission von Bloch-Oszillationen in einem Magnetfeld zu realisieren, diese Messungen werden daher nur kurz dargestellt. Je nach Feldstarke des elektrischen und des magnetischen Feldes wird die Emission der Bloch-Oszillationen durch die magnetische oder elektrische Quantisierung dominiert. In Vorbereitung auf zeitaufgelöste Messungen wurde im Rahmen dieser Arbeit zusätzlich auch ein neuer dichroitischer Strahlteiler verwendet und charakterisiert. Ein Indium-Zinn-Oxid-Film auf einem Glassubstrat ist im optischen Frequenzbereich transparent, besitzt aber im niedrigen THz-Frequenzbereich (0 bis 2.5 THz) eine relative Reflexion von 90% bis 80% und eine relative Transmission von konstant etwa 10% und kann somit als Alternative zu dem sonst häufig verwendeten Folien-Strahlteiler verwendet werden. Der komplexe Brechungsindex ñ kann numerisch aus den Reflexions- bzw. Transmissionsdaten bestimmt werden.
Im Rahmen dieser Arbeit wurde ein Verfahren zur Messung der Absorption der TM0-Mode im atmosphärischen Wellenleiter entwickelt, das auf der Bestimmung des Amplitudenabfalls von durch Blitze generierten ELF-Impulsen beruht. Eine Anwendung des Verfahrens setzt die simultane Messungen der ELF-Impulse an verschiedenen Stationen voraus. Im Sommer 1998 wurde im Rahmen der Spritekampagne'98 ein geeigneter Datensatz an drei Stationen im Westen Nordamerikas gewonnen. Bislang wurde ein Teil dieses Datensatzes herangezogen, um das Messverfahren zu testen und mit Ergebnissen aus einer anderen Quelle zu vergleichen. Diese Tests waren erfolgreich und die Ergebnisse von Hughes und Gallenberger [10] konnten reproduziert werden. Die Stationen wurden mit Induktionsspulen-Magnetometern vom Typ Metronix MFS05 im HF-Modus betrieben. Die für die Instrumentenkorrektur erforderlichen Übertragungsfunktionen der Magnetometer waren vorab nur für den LF-Modus mit Vertrauen erweckender Sicherheit bekannt. Dies machte eine Nachkalibrierung der Magnetometer erforderlich, bei der zunächst versucht wurde, die bekannte LF-Übertragungsfunktion zu reproduzieren. Dazu wurde die Einspeisung einer Rechteckschwingung in den Kalibriereingang des MFS05-Magnetometers verwendet. Bei 5 von 6 verwendeten Magnetometern ließ sich die Übertragungsfunktion für den LF-Modus reproduzieren. Bei einem traten jedoch deutliche Abweichungen auf, die sich auch bei anderen Messungen reproduzieren ließen. Die Übertragungsfunktion des Magnetometers hat sich also seit der letzten Kalibrierung durch den Hersteller verändert. Erst durch diese Nachkalibrierung ist es möglich geworden, diese Veränderung in Instrumentenkorrekturen einzubringen. Nachdem im LF-Modus gezeigt war, dass die verwendete Kalibrierungsmethode funktioniert wurde sie auch für den HF-Modus angewandt. Neben der Kalibrierung durch Einspeisung eines synthetischen Signals wurden auch Kalibrierungen unter Ausnutzung der natürlichen Anregung durchgeführt. Diese dienten in erster Linie einem Vergleich verschiedener Messgeräte: Den beiden Datenloggern SPAM MkIII und Quanterra QT4120 sowie den bei- den Magnetometern Metronix MFS05 und EMI BF-4. Der QT4120-Datenlogger wurde ursprünglich nicht zum Anschluss von Magnetometern konzipiert und benötigte dazu eine separate Adaptereinheit. Eine solche Adaptereinheit (kurz "Adapterbox") wurde im Rahmen dieser Arbeit konzipiert und gemeinsam mit der am Institut angestellten Elektronikerin Vera Fischer implementiert. Die Messergebnisse der Kalibrierungen mit natürlicher Anregung wurden so gedeutet, dass der SPAM MkIII-Datenlogger und das MFS05-Magnetometer gegenüber dem Quanterra QT4120-Datenlogger und dem EMI BF-4-Magnetometer einen geringeren Rauschpegel im ELF-Bereich aufweisen. Dies muss nicht für Frequenzen unterhalb des ELF-Bereichs gelten - dort wurden keine Untersuchungen angestellt.
In dieser Arbeit wurde die Implementierung einer JMX-konformen Managementinfrastruktur für das Agentensystem AMETAS vorgestellt. Darauf basierend wurden im Rahmen des Fehlermanagements Kontrollmechanismen der mobilen Agenten im AMETAS untersucht und eine Lösung für die Lokalisierung von AMETAS-Agenten entworfen und implementiert. Der essentielle Hintergrund für das AMETAS-Management stellt sich folgendermaßen dar: Die Betrachtung des Anwendungs- und Infrastrukturmanagements mit Blick auf die Managementhierarchie stellt die Offenheit und Kooperationsfähigkeit der angestrebten Managementlösung in den Vordergrund. Diese Eigenschaften ermöglichen die Integration der in einem Unternehmen existierenden Managementlösungen. Ziel ist dabei ein kostengünstiges und effizientes Management. Eine Managementarchitektur wird mit Hilfe der informations-, organisations-, kommunikations- und funktionsbezogenen Aspekte beschrieben und modelliert. Anhand dieser Aspekte ist CORBA, DMTF, WBEM und JMX analysiert und ihre Eignung für das AMETASManagement bewertet worden. Neben den allgemeinen Kriterien sind ihre Teilmodelle, ihre Unterstützung des dezentralen und des dynamischen Managements sowie ihre Integrationsfähigkeit im AMETAS zentrale Punkte. Es zeigt sich, dass die JMX die besten Möglichkeiten für das AMETAS-Management bietet. Das OSI-Funktionsmodell klassifiziert die Managementaufgaben und -funktionen in fünf Bereiche, die häufig als FCAPS bezeichnet werden: Fehler-, Konfigurations-, Abrechnungs- , Leistungs- und Sicherheitsmanagement. Diese Klassifikation ist orthogonal zu jeder anderen und bietet einen geeigneten Rahmen für die Aufteilung der Managementaufgaben und - funktionen. Das in dieser Arbeit empfohlene AMETAS-Management orientiert sich hinsichtlich der Managementaufgabenaufteilung am OSI-Modell. Die JMX bietet mächtigeWerkzeuge zur Instrumentierung aller Arten von Ressourcen. Ihre Java-Basiertheit bedeutet eine wesentliche Vereinfachung für das Agentensystem. Die offene Architektur von der JMX ermöglicht die Kooperation des AMETAS-Managements mit anderen Managementstandards. Das AMETAS-Management nutzt die Vorzüge der mobilen Agenten insbesondere im Bereich des Konfigurations- und Fehlermanagements aus. Folgende Eigenschaften zeichnen das AMETAS-Management aus: 1) Verwendung der Agenteninfrastruktur für das Management. Selbiges wird dabei als ein AMETAS-Dienst implementiert und kann alle Möglichkeiten und Dienste der Agenteninfrastruktur nutzen. 2) Verwendung der AMETAS-Agenten und Dienste als Managementwerkzeuge. 3) Selbstmanagement des Systems. Der Managementdienst ist hierfür mit ausreichender Intelligenz ausgestattet. Er nutzt die Mechanismen der Agenteninfrastruktur aus und erledigt diverse Managementaufgaben selbständig. Das Ereignissystem vom AMETAS spielt hierbei eine wichtige Rolle. Die Analyse der Kontrollmechanismen von MASIF, Aglets Workbench und Mole liefert hinsichtlich ihrer Eignung für die Lokalisierung von Agenten im AMETAS folgendes Ergebnis: Die untersuchten Ansätze sind teilweise allgemein anwendbar. Man unterscheidet die nichtdeterministischen Ansätze wie Advertising und Energiekonzept von denen, die bestimmte Spuren von Agenten in einer geeigneten Art hinterlegen. In dieser Hinsicht stellte sich das Pfadkonzept als interessant heraus: Bei diesem Konzept können die Informationen über den Pfad der Migration eines Agenten in geeigneterWeise zeitlich beschränkt oder unbeschränkt gespeichert werden. Eine andere Alternative bietet die Registrierungsmethode. Bei dieser Methode wird ein Agent in einer zentralen Stelle registriert, wobei die eindeutige Identität eines Agenten und die aktuelle Stelle, in der sich ein Agent aufhält, gespeichert werden. Vor dem Hintergrund der erfolgten Analyse empfiehlt sich als Basis für die Lokalisierung von AMETAS-Agenten eine Art Pfadkonzept: Die Spuren der Agenten werden durch einen Managementdienst gesichert. Will man einen bestimmten Agenten oder eine Gruppe lokalisieren, werden die dezentral vorhandenen Informationen innerhalb eines konsistenten Schnitts (Schnappschuss) ausgewertet. Die Schnappschussmethode empfiehlt sich für die Lokalisierung von Agenten im AMETAS entsprechend den zu Beginn der Arbeit von einem Lokalisierungsmechanismus geforderten Eigenschaften: Sie erlaubt eine zuverlässige Lokalisierung der gesuchten Agenten, deren Autonomie dabei respektiert wird. Die Kosten-Leistungsrelation ist günstig einzuschätzen, da unnötiger Daten- bzw. Agentenverkehr ebenso vermieden wird wie die Pflege umfangreicher, zentralistischer Datenbanken.
Durch Prozessverbesserungen ist es möglich, den Ressourcenverbrauch einer Unternehmung zu reduzieren, ohne an den Eigenschaften des erstellten Gutes Abstriche vornehmen zu müssen. Intuitiv ist ersichtlich, dass eine bessere Ausnutzung der vorhandenen Ressourcen vorteilhaft für die Unternehmung ist. Mit dem Übergang zur Informationsgesellschaft stellt sich die Frage, inwiefern traditionelle Verfahren zur Prozessverbesserung sich auf die immer bedeutender werdende Ressource „Wissen“ anwenden lassen. Hat Wissen in Verfahren zur Erstellung physischer Güter noch eine nur unterstützende Funktion, so stellt es in Branchen, deren Focus in der Entwicklung von Wissen liegt, den wichtigsten „Produktionsfaktor“ dar. In vorliegendem Text wird der Versuch unternommen, bekannte Verfahren zur Qualitätsverbesserung von Prozessen dahingehend zu betrachten, inwieweit sie für eine Anwendung auf den Umgang mit Wissen geeignet sind. Dazu erfolgt eine Darstellung grundlegender Begriffe, gefolgt von Kriterien, anhand derer die Qualität von Wissensprozessen beurteilt werden kann. Danach werden verschiedene Qualitätsverbesserungsverfahren dargestellt und ihre Eignung zur Anwendung auf Wissensprozesse beurteilt. Abschließend findet sich ein Ausblick darauf, in welchen Gebieten weitere Überlegungen zu diesem Thema angebracht sind. Hingewiesen werden muss auf dem Umstand, dass vorliegende Arbeit aus Platzgründen einige mehr oder minder starke Reduzierungen enthält. Bekannte Qualitätsverbesserungsverfahren wurden in verschiedene Kategorien eingeteilt, aus diesen Kategorien wurden dann exemplarisch einige Verfahren für die nähere Betrachtung ausgewählt. Einen Anspruch auf Vollständigkeit erhebt der vorliegende Text somit nicht. Auch die Kategorisierung kann nicht als allgemeingültig angesehen werden, da die meisten Qualitätsverbesserungsverfahren starke Unterschiede aufweisen und somit das Einordnen in ein einheitliches Schema erschweren. Dennoch wurden gemeinsame Merkmale identifiziert und zur Bildung von Kategorien verwandt.
Gemessen wurden der gerichtete und der elliptische Fluss von Pionen und Protonen in Blei-Blei-Stößen bei einer Laborenergie des Projektils von 40 GeV pro Nukleon. Bestimmt wurde die Abhängigkeit der beiden Flusskomponenten von der Zentralität des Stoßes sowie von der Rapidität und dem Transversalimpuls der gemessenen Teilchen. Zur Rekonstruktion des Flusses wurde die Methode der Korrelation der Teilchen mit der abgeschätzten Reaktionsebene verwendet. Zur Korrektur der azimutalen Anisotropien des Detektors wurde die Methode des Zentrierens der Teilchenverteilung in Abhängigkeit von Rapidität und Transversalimpuls angewendet. Für den v2 wurde eine Abänderung des Korrelationsterms nötig, um den Einflüssen durch die schlechte Akzeptanz entgegenzuwirken. Weiterhin wurde der Einfluss von Nicht-Fluss-Korrelationen zwischen den gemessenen Teilchen auf den Fluss untersucht. Dabei erkannte man einen starken Einfluss der Transversalimpulserhaltung im v1, der durch eine Korrektur behoben werden konnte. Einen weniger starken Einfluss konnte man bei der Untersuchung im Phasenraum kurzreichweitiger Korrelationen feststellen. Es wurde erstmals deutlich ein negativer gerichteter Fluss von Protonen nahe der Schwerpunktsrapidität beobachtet, der bereits mittels meherer theoretischer Rechnungen vorhergesagt wurde. Sowohl der gerichtete als auch der elliptische Fluss erreicht bei 40 AGeV Laborenergie annähernd die gleichen Werte, die von NA49 bei 158 AGeV Laborenergie gemessen wurden. Die für den Fluss gemessenen Werte befinden sich teilweise in Übereinstimmung mit denen des Experimentes CERES/NA45, ist allerdings nur bedingt möglich, da bisher nur einzelne vorläufige Resultate veröffentlicht wurden. Die für den elliptischen Fluss gemessenen Werte bei der Schwerpunktsrapidität und einer Zentralität von 25% liegen etwas höher als man aus der beobachteten Systematik der Energieabhängigkeit zwischen den Experimenten E877 (mit 10 AGeV Laborenergie am AGS), CERES und NA49 (bei einer Energie von und 160 AGeV am SPS) sowie STAR (am RHIC bei einer Energie von psNN = 130GeV) erwartet hat. So wird von den Werten am AGS bei voller Energie zu denen am SPS bei 40 AGeV ein Anstieg von 2% auf 3,3% beobachtet. Von 40 AGeV zu 158 AGeV Laborenergie am SPS ändert sich der Wert nur minimal von 3,3% auf 3,2%. Zwischen der höheren SPS-Energie von 158 AGeV und der RHIC-Energie von psNN = 130GeV wird ein weiterer Anstieg von 3,2% auf 5,6% gemessen. Das ist ein Anzeichen für eine Anomalie, die im Bereich der SPS-Energien vorliegen könnte. Eine genauere Bestimmung des Flusses ist noch möglich, da für die Analyse dieser Arbeit erst eine Hälfte der gemessenen Daten zur Verfügung stand. Mit Hilfe dieser Daten ließe sich die Energieabhängigkeit des Flusses genauer untersuchen und die gefundene Anomalie bestätigen.
The synchronization of neuronal firing activity is considered an important mechanism in cortical information processing. The tendency of multiple neurons to synchronize their joint firing activity can be investigated with the 'unitary event' analysis (Grün, 1996). This method is based on the nullhypothesis of independent Bernoulli processes and can therefore not tell whether coincidences observed between more than two processes can be considered "genuine" higher- order coincidences or whether they might be caused by coincidences of lower order that coincide by chance ("chance coincidences"). In order to distinguish between genuine and chance coincidences, a parametric model of independent interaction processes (MIIP) is presented. In the framework of this model, Maximum-Likelihood estimates are derived for the firing rates of n single processes and for the rates with which genuine higher order correlations occur. The asymptotic normality of these estimates is used to derive their asymptotic variance and in order to investigate whether higher order coincidences can be considered genuine or whether they can be explained by chance coincidences. The empirical test power of this procedure for n=2 and n=3 processes and for finite analysis windows is derived with simulations and compared to the asymptotic values. Finally, the model is extended in order to allow for the analysis of correlations that are caused by jittered coincidences.
Integration in den Grenzregionen der Europäischen Union - die Europäische Union und ihre Bürger
(2002)
Die Arbeit setzt sich mit der Bedeutung der regionalen Ebene im Europäischen Integrationsprozess auseinander und untersucht die Rolle der Regionen in der Europäischen Union und ihren Mitgliedstaaten. Am Beispiel der Grenzregionen innerhalb der Europäischen Union werden die Fortschritte und die Auswirkungen der Europäischen Integration auf das Leben der europäischen Bürger dargestellt.
"Germany is back" (Schöllgen 1994: 35), so beschreibt Schöllgen prägnant Deutschlands internationale Position nach dem Ende des Ost-West-Konfliktes und dem Fall der Mauer. Was Schöllgen so schlicht zusammenfasst wurde von der deutschen Öffentlichkeit, aber auch von der Mehrheit der Wissenschaftler, lange Zeit keinesfalls so gesehen. Statt eines Wandels deutscher Außenpolitik aufgrund der veränderten Rahmenbedingungen herrschte ein weitverbreiteter Konsens darüber, Deutschland habe sich abgesehen von einer Erhöhung der Einwohnerzahl von 63 auf 82 Millionen und eines Flächenzuwachses von 248 000 auf 375 000 Quadratkilometer nicht gravierend im internationalen System gewandelt. ...
Wir untersuchen das Verhalten von unären stochastischen endlichen Automaten mit Hilfe von Methoden der Theorie der homogenen Markovketten. Für unäre stochastische Automaten mit E-isoliertem Cutpoint lambda und n Zuständen bestimmen wir eine obere Schranke für die Größe des zyklischen Teils eines optimalen äquivalenten DFAs. Ein Ergebnis von Milani und Pighizzini zeigt bereits, dass für den zyklischen Teil des äquivalenten DFAs O(e exp(sqrt(n ln n))) Zustände ausreichen und in unendlich vielen Fällen auch Omega(eexp(sqrt(n ln n))) Zustände benötigt werden, wobei die Größe von E keine Rolle spielt. Wir zeigen die obere Schranke n exp (1/2E) für die Größe des zyklischen Teils und weisen nach, dass der optimale DFA für jedes c < 1 in unendlich vielen Fällen mehr als n exp (c/2E) viele Zustände im zyklischen Teil benötigt. Wir weisen auch nach, dass es eine unendliche Familie endlicher unärer Sprachen gibt, für die es jeweils einen PFA mit n Zuständen und 1/4-isoliertem Cutpoint gibt, während der optimale, DFA e exp(Omega x sqrt(n ln n)) Zustände im Anfangspfad benötigt.
Im Rahmen dieser Diplomarbeit wurde ein Slow-Control-System für die HADES-Driftkammern konzipiert und umgesetzt. Ebenso wurden Teile des Konzepts erfolgreich für die Nutzung durch den RICH- und Showerdetektor angepasst. Durch die Nutzung in verschiedenen Strahlzeiten hat sich gezeigt, dass das System den gestellten Anforderungen gerecht wird. Die aufgezeichneten Daten lassen sich den Ereignissen während des Betriebs chronologisch zuordnen. Somit ist es möglich, zu jedem Zeitpunkt die Betriebsund Umgebungsbedingungen zu Analysezwecken zu rekonstruieren. Auch die Genauigkeit der aufgezeichneten Daten ermöglicht es, besondere Ereignisse wie z.B. Funkenüberschläge zu erkennen. Design und die Funktionalität der entwickelten GUI’s haben sich im Einsatz ebenfalls bewährt. Für die ermittelten und gesetzten Alarmwerte stellte sich heraus, dass einige Werte größeren Schwankungen unterliegen als die im April 2002 gewonnenen Daten vermuten ließen. Als Beispiel hierfür kann der gemessene Wert für die Sauerstoffkontamination dienen. Die im April aufgenommene Werte lagen für den besten Reinigungszustand wesentlich niedriger, als während der Strahlzeit im November 2002. Es wurde daher eine Anpassung der Alarmwerte nach oben notwendig. Dies gilt ebenfalls für andere Bereiche des Systems, wie Temperaturen, Ströme und Spannungen. Die individuelle Anpassung und Optimierung der einzelnen Alarmwerte ist ein langwieriger Prozess, der nur durch die gesammelten Erfahrungen über einen langen Betriebszeitraum erfolgreich umgesetzt werden kann.
Die vorliegende Arbeit beschäftigt sich mit der Produktion positiv und negativ geladener Pionen im System Au+Au bei einer kinetischen Strahlenergie von 1,5 GeV pro Nukleon. Diese Daten wurden im Juli 1998 mit dem Kaonenspektrometer KaoS gemessen. Es liegen Pi-Minus-Spektren bei drei verschiedenen Laborwinkeln (Theta Lab = 40°, 48°, 60°) vor sowie Pi-Plus-Spektren bei fünf Laborwinkeln(Theta Lab = 32°, 40°, 48°, 60°, 71,5°). Die Spektren können als Funktion der Energie im Nukleon-Nukleon-Schwerpunktssystem mit der Summe zweier Boltzmannverteilungen beschrieben werden, deren Steigung sich ebenso wie der unter Annahme isotroper Emission im Schwerpunktssytem integrierte Wirkungsquerschnitt mit dem Laborwinkel ändert. Als mögliche Ursache dieses Verhaltens wird untersucht, ob eine polare Anisotropie der Emission vorliegt. Eine solche wurde in früheren Experimenten [49, 50] für die Pionenproduktion in Proton-Proton-Stößen gefunden und als Effekt der p-Wellen-Produktion von Pionen interpretiert, bei der als Zwischenschritt eine Resonanz, zumeist eine Delta-Resonanz, angeregt wird. Die Zerfallskinematik dieser Resonanzen bewirkt duch ihren Drehimpuls eine Winkelverteilung der emittierten Pionen [24]. In Kern-Kern-Stößen führt die Abschattung von Pionen durch nicht an der Reaktion teilnehmende Nukleonen zu einer zusätzlichen Richtungsabhängigkeit der Emission. Unter der Annahme, daß Energie- und Winkelabhängigkeit separierbar sind, wird in einem einfachen Modell der Winkelanteil des differentiellen Wirkungsquerschnitts als Funktion des Kosinus des Schwerpunktswinkels mit einer Parabelform beschrieben. Um den Anpassungsparameter a2, der die Stäke der Anisotropie quantifiziert, zu ermitteln, stehen zwei Methoden zur Verfügung, die simultane Anpassung der bei festem Laborwinkel gemessenen Spektren und der Vergleich mit einer durch Schnitte durch die Laborimpulsspektren erzeugten Verteilung bei Theta cm = 90°. Beide Verfahren ermitteln erfolgreich den Anisotropieparameter aus in einer Monte-Carlo-Simulation erzeugten Spektren mit parabelförmiger Winkelverteilung. Die mit beiden Methoden ermittelten a2-Werte stimmen für Pi+ wie für Pi- im Rahmen der Fehler überein. Die Winkelverteilung der Pi+ ist mit a2 = 0,7 +- 0,1 stärker ausgeprägt als die der Pi- mit a2 = 0,4 +- 0,1, beide werden bevorzugt unter Theta cm = 0° und Theta cm = 180° emittiert. Allerdings zeigt sich in beiden Methoden eine starke Abhängigkeit von der Phasenraumabdeckung der Daten und beide sind nicht geeignet, eine Abhängigkeit des Anisotropieparameters von der Pionenenergie zu ermitteln....