Refine
Year of publication
Document Type
- diplomthesis (216) (remove)
Has Fulltext
- yes (216)
Is part of the Bibliography
- no (216)
Keywords
- Stochastik (3)
- RDF (2)
- Semantic Web (2)
- Soziologie (2)
- Statistik (2)
- Stochastischer Prozess (2)
- Strahltransport (2)
- Yule-Prozess (2)
- Ablenkung <Physik> (1)
- Algorithmus (1)
Institute
- Physik (101)
- Mathematik (39)
- Informatik (29)
- Gesellschaftswissenschaften (14)
- Wirtschaftswissenschaften (8)
- Geowissenschaften (7)
- Biowissenschaften (4)
- Erziehungswissenschaften (4)
- Biochemie und Chemie (3)
- Geographie (1)
In vorliegender Arbeit wurde ein lineares Sigma-Modell mit verktoriellen sowie axial-vektoriellen Freiheitsgraden durch Einkopplung des Dilatons verallgemeinert, wodurch Kontakt mit der Skalen-Anomalie erzielt wurde. Anschließend war die Intention, die Zerfallsbreiten des entmischten Sigmafeldes sowie des entmischten skalaren Glueballs, die mit den skalaren-isoskalaren Resonanzen f0(1370) und f0(1500) identi
ziert wurden, auf Baumdiagrammniveau zu berechnen und mit experimentellen Befunden zu vergleichen, um Aussagen über die Natur dieser Resonanzen im Rahmen der durchgeführten Studie machen zu können.
Die Frage, ob das Klima extremer wird, beschäftigt Wissenschaft und Öffentlichkeit mit zunehmender Intensität. Daher ist hier eine extremwertstatistische Untersuchung hinsichtlich Niederschlag und Temperatur durchgeführt worden. Dabei werden, entsprechend IPCCEmpfehlungen, für die untersuchten Zeitreihen obere und untere Schwellenwerte festgelegt. Durch Auszählen kann dann ermittelt werden, wie oft die entsprechende Schranke über- oder unterschritten wurde (relativer Extremwert). Das Verhältnis der Anzahl der relativen Extremwerte zu den Gesamtwerten nennt man empirische Extremwerthäufigkeit. Darüber hinaus wurden Häufigkeitsverteilungen an die Datensätze angepasst, aus denen vorher der Jahresgang eliminiert wurde. Über diese Häufigkeitsverteilungen bestimmt man die theoretische Über- oder Unterschreitungswahrscheinlichkeit der jeweiligen Schranke, und vergleicht diese mit der empirischen. Diese Daten bieten auch die Möglichkeit, weitere wahrscheinlichkeitstheoretische Größen (Risiko, Wartezeitverteilung, Wiederkehrzeit) zu bestimmen. Das Verfahren wird auf 78 100-jährige Zeitreihen des Niederschlags und 10 100-jährige Zeitreihen der Temperatur in Deutschland angewendet. Dabei ist zu beachten, dass eine Übereinstimmung von empirischen und theoretischen Ergebnissen nur im statistischen Mittel zu erwarten ist. Die Untersuchungen zeigen, dass die ersten 10 bis 15 Jahre des letzten Jahrhunderts, sowohl bei den Niederschlägen als auch bei der Temperatur, nicht so extrem gewesen sind wie der Rest des Jahrhunderts. Bei den Niederschlagsdaten zeigt sich darüber hinaus um die Jahrhundertmitte ein etwa 10-jähriger Zeitraum mit hoher Niederschlagsvariabilität. Für die Abschätzung der Wahrscheinlichkeit des Überschreitens von Schranken bei Niederschlagsdaten ist die angepasste Gumbelverteilung am besten geeignet. Der Unterschied zu den anderen angepassten Verteilungen ist um so klarer, je höher die Schranke gewählt wird. Für die Abschätzung der Wahrscheinlichkeit des Unterschreitens von Schranken bei Temperaturdaten ist die angepasste Weibullverteilung am besten geeignet. Kein klares Bild ergibt sich bei den Kombinationen untere Schranke und Niederschlagsdaten sowie obere Schranke und Temperaturdaten. Die Abschätzung der Eintrittswahrscheinlichkeit und damit verbunden die Bestimmung der Wiederkehrzeit und des Risikos ist in allen Fällen um so besser, je geringer der Jahresgang der Variabilität der untersuchten Größe ist. Beim Trend der Wiederkehrzeit zeigt sich bei den Niederschlagsdaten und der unteren Schranke im äußersten Westen Deutschlands ein Rückgang trockener Ereignisse. Ansonsten erkennt man nur schwache Änderungen. Für obere Schranken zeigt sich im Westen Deutschlands ein Rückgang der Wiederkehrzeit, also ein Trend zu häufigeren extremen Niederschlägen, mit einem Maximum im östlichen Nordrhein-Westfalen. Im Osten dagegen ermittelt man einen Rückgang extremer Niederschläge und damit einen Trend zu trockenerer Witterung, am stärksten ausgeprägt im westlichen Erzgebirge. Für die Temperaturdaten zeigt sich in fast ganz Deutschland für untere Schranken ein Anstieg der Wiederkehrzeit. Extrem niedrige Temperaturen treten also tendenziell seltener auf. Die Ausnahme bilden hier nur, je nach zugrunde liegender Verteilung, der (äußerste) Norden und Osten Deutschlands. Die gleiche geographische Unterteilung, jedoch mit umgekehrtem Trend, zeigt sich bei den oberen Schranken. Extrem warme Ereignisse treten, mit Ausnahme des Nordostens, tendenziell häufiger auf. Die stärkste Zunahme im Trend der warmen Ereignisse zeigt sich dabei im Südwesten Deutschlands.
Konzeptionelle Untersuchungen eines Dielektronenspektrometers für Schwerionenstöße im GeV/u-Bereich
(1993)
RDF is widely used in order to catalogue the chaos of data across the internet. But these descriptions must be stored, evaluated, analyzed and verified. This creates the need to search for an environment to realize these aspects and strengthen RDFs influence. InterSystems postrelational database Caché exposes many features that are similar to RDF and provide persistence with semantic part. Some models for relational databases exist but these lack features like object-oriented data-structures and multidimensional variables. The aim of this thesis is to develop an RDF model for Caché that saves RDF data in an object-oriented form. Furthermore an interface for importing RDF data will be presented and implemented.
Im Sommer 1992 wurde an Abschnitten der Rur und ihres Nebenflusses Inde (Niederrheinische Bucht, Nordrhein-Westfalen) die Ufervegetation pflanzensoziologisch untersucht und die lokale Verbreitung von Neophyten mit Hilfe einer speziell entwickelten Methode der Feinkartierung erfaßt.
Die Ufervegetation der Rur weist nur in zwei Teilbereichen natürliche bzw. naturnahe Vegetationstypen der Flußufer in guter Ausbildung auf; hier treten flächenhaft Gesellschaften der Convolvuletalia, des Phragmition und Sparganio-Glycerion, des Bidention und des Salicion purpureae auf. Die übrigen Bereiche der Rur und ebenso die Inde sind ausgebaut und durch relativ intensiv "gepflegte", botanisch verarmte Ufer gekennzeichnet.
Insgesamt wurden knapp 60 Kilometer Uferstrecke abgegangen und dabei etwa 30 neophytische Sippen nachgewiesen; hiervon wurden 15 ausgewählte Sippen systematisch kartiert. Für etwa ein Dutzend im Untersuchungsgebiet häufigere Neophyten wurden Verbreitungskarten erstellt und diskutiert.
Parallel zur Feinkartierung von Neophyten wurden im Gelände und aus schriftlichen Quellen verschiedene Formen anthropogener Standortveränderungen erfaßt, um Hinweise auf Zusammenhänge mit der Ausbreitung der Neophyten zu erhalten.
Aus einer Sichtung der diesbezüglichen Literatur ergaben sich zwei Gruppen von Hypothesen darüber, welcher Typ von anthropogenen Einflüssen die Ausbreitung von Neophyten an Flüssen besonders begünstigt: von einigen Autoren wurden direkte mechanische Eingriffe im Uferbereich, wie Kanalisierung und Auwaldrodung, als maßgeblich betrachtet, von anderen Autoren wurde dagegen in den chemischen Belastungen des Flußwassers der Hauptfaktor vermutet. Es wurde in der vorliegenden Arbeit aber davon ausgegangen, daß die Daten, die bisher zu Aussagen über die Neophyten-Problematik an Flußufern herangezogen wurden, im wesentlichen auf zu kleinmaßstäbigen Kartierungen und auf zu spezieller Betrachtung einzelner neophytischer Arten beruhten.
Deshalb wurde in der vorliegenden Arbeit versucht, zusätzlich zur Feinkartierung einen neuen methodischen Ansatz zu entwickeln, um die Bedeutung, die Neophyten insgesamt in der Vegetation eines bestimmten Flußabschnitts haben, synthetisch zu analysieren.
Es wurde ein "Neophyten-Index" als Maß des Neophytenreichtums ermittelt; er bezieht sich immer auf einen bestimmten Flußabschnitt und ergibt sich aus der Gesamtzahl und Häufigkeit der in dem Abschnitt gefundenen neophytischen Sippen. Der Neophyten-Index als synthetischer Ausdruck floristischer Veränderungen ermöglichte einen groben Vergleich mit Daten zu anthropogenen Standortveränderungen. Die Probleme derartiger schematischer Berechnungen wurden diskutiert; alle Aussagen über die Ergebnisse mußten vorbehaltlich der Notwendigkeit kritischer Interpretation erfolgen.
Eine wichtige Rolle bei den Untersuchungen spielte die Frage des Status von Neophyten-Vorkommen; wesentlich war auch die Kenntnis der aktuellen Phase der Einwanderung eines Neophyten in das Untersuchungsgebiet. Vorkommen mit zufälligem Charakter, also unbeständige oder vorpostenartige Vorkommen, erlauben nur begrenzt ökologische Aussagen. Deshalb waren nicht alle gefundenen Neophyten gleichermaßen für die Berechnung eines Neophyten-Index verwendbar. Neben Beobachtungen im Gelände waren zur Beurteilung dieser Fragen umfangreiche Auswertungen der Literatur notwendig. Als Ergebnis wurde also zunächst sippenbezogen die Geschichte der Ausbreitung rekonstruiert, sowie die gegenwärtige Verbreitung und der Status im Untersuchungsgebiet ermittelt. Acht Neophyten wurden dann als geeignet befunden, in die Berechnung des Neophyten-Index einzugehen.
Es ergaben sich deutliche Unterschiede im Neophyten-Index verschiedener Flußabschnitte: für den unteren Bereich der Rur unterhalb der Einmündung der Inde und besonders für die Inde selbst ergaben sich deutlich höhere Neophyten-Indices als für den oberen Bereich der Rur.
Entgegen häufigen allgemeinen Angaben in der Literatur gab es im Untersuchungsgebiet keinen erkennbaren Zusammenhang zwischen dem Ausbauzustand eines Flußabschnittes und dessen Neophytenreichtum; einige naturnah mäandrierende Abschnitte der Rur waren deutlich neophytenreicher als andere, regulierte Abschnitte.
Ebensowenig war im gewählten Maßstabsbereich ein Zusammenhang zwischen der Beschattung der Ufer durch Gehölze und dem Neophytenreichtum festzustellen; der gesamte obere Bereich der Rur war trotz geringer Beschattung relativ neophytenarm.
Eine sehr auffällige Koinzidenz besteht jedoch zwischen Neophyten-Index und der Gewässergüteklasse der Teilabschnitte; die Inde ist durch vor allem industrielle Abwässer erheblich verschmutzt, während die Rur oberhalb der Einmündung der Inde nur geringere Belastungen aufzuweisen hat. Eine deutliche Abhängigkeit der Neophyten-Ausbreitung von der Gewässerbelastung wurde in der Literatur bisher zwar von einigen Autoren vermutet, jedoch nie durch exakte Kartierungen in geeigneten Untersuchungsgebieten nachgewiesen.
Die hier nachgewiesene Koinzidenz zwischen Gewässerbelastung und Neophytenreichtum muß mit Vorsicht interpretiert werden; weitere Faktoren unbekannter Bedeutung kommen hinzu. Als Einschleppungsort bzw. Ausbreitungszentrum von Neophyten könnte etwa die Industrieregion im Einzugsgebiet der Inde - oberhalb des Untersuchungsgebiets - eine Rolle spielen. Auch ein Einfluß des Abflußregimes auf die Ausbreitung von Neophyten kann nach den vorliegenden Daten nicht ausgeschlossen werden.
Abschließend werden die konkreten Standortfaktoren Wasserhaushalt und Bodensubstrat bezüglich ihrer noch weitgehend im Dunkeln liegenden Abwandlung durch anthropogene Einflüsse diskutiert.
In der vorliegenden Arbeit werden Stöße zwischen Alpha-Teilchen und Li-ähnlichen Ionen sowie Stöße zwischen vollständig ionisierten Projektilionen und dem Li-ähnlichen Ion N4+ untersucht. Hierzu wird die zeitabhängige Schrödinger-Gleichung unter Verwendung einer effektiven Einteilchenbeschreibung im Rahmen der nichtpertubativen Basis Generator Methode (BGM) gelöst.
Die wissenschaftliche Recherche im Internet gestaltet sich als sehr schwierig, will man relevante Informationen schnell finden. Das Problem ist nicht der Mangel an Informationen sondern vielmehr das Übermaß davon. Außer der Quantität ist es für ein Mitglied einer Hochschule wichtig auf, von der Universität lizenzierte Webseiten zugreifen zu können. Aus einem Suchwerkzeug, wie zum Beispiel Google, kann ein Informationsanbieter nicht erkennen ob der dahinter stehende Benutzer berechtigt ist einen Artikel anzufordern. Ein anderer Aspekt worauf ein Wissenschaftler bei seiner Suche Wert legt, ist die Qualität eines Artikels. Am besten eignen sich hier wissenschaftliche Artikel aus renommierten und angesehenen Zeitschriften. Aus diesem Hintergrund heraus haben sich Informationsanbieter Gedanken gemacht wie man qualitativ hochwertige Artikel schnell in einer Recherche einbinden kann. Die Module, die Entwickelt wurden bilden die Basis für die Software die diese Entwicklungen zusammenfügt und miteinander harmonieren lässt. Für die Identifikation von elektronischen Dokumenten wurde unter anderem der DOI (Digital Object Identifier) entwickelt. Außerdem wichtig für unsere endgültige Software ist der OpenURL Standard. Damit werden die meisten Probleme die bei der mit einer herkömmlichen URL bestehen gelöst. Mit diesem Standard wird anhand von Metadaten eine eindeutige Identifikation eines Dokumentes vorgenommen die zu einem Dokument verlinkt, auch wenn sich seine eigentliche URL geändert hat. Die Diplomarbeit zeigt uns einen Überblick über diese Module. Dieser Lösungsweg führt uns zu einer Technologie die angewandt wird um unser Ausgangsproblem zu lösen. In dieser Software sind, anhand eindeutiger Identifikation, wissenschaftliche Dokumente und Artikel permanent abrufbar ohne der Gefahr einen Artikel durch Änderung seiner URL zu verlieren.
In der vorliegenden Arbeit wurde die Möglichkeit der Realisierung eines 2-Pi-Spaltfragmentdetektors untersucht. Damit soll es möglich sein eine Information über die Kernladungszahl eines Fragments aus spontaner oder teilcheninduzierter Spaltung zu erhalten. Die Meßmethode ist daraufhin ausgelegt, daß der korrespondierende Partner eines im Detektor nachgewiesenen Spaltfragments in einer dicken Quelle oder einem dicken Target gestoppt wird und der Gamma-Zerfall dieses neutronenreichen, meist hoch angeregten Kerns in Ruhe erfolgt . Die emittierte Gamma-Strahlung ist somit weder Dopplerverschoben noch -verbreitert und kann von Germanium-Detektorarrays spektroskopiert werden. Durch die hohe Selektivität der Spaltfragmentdetektion läßt sich damit die Struktur seltener, besonders neutronenreicher Kerne untersuchen. Die Methode basiert auf der Messung des spezifischen Energieverlusts eines Spaltfragments mit Hilfe einer Gasionisationskammer und der anschließenden Messung der Restenergie des Spaltfragments mit Hilfe eines Silizium-Halbleiterdetektors. Hierzu wurden Messungen von Spaltfragmenten aus spontaner Spaltung von 252-Cf mit Hilfe eines Detektorteleskops [Goh94] in Koinzidenz mit einem hochreinen Germanium Detektor durchgeführt. Das Teleskop bestand aus einer Ionisationskammer, die mit einem elektrischen Feld arbeitete, das senkrecht zur mittleren Spaltfragmenttrajektorie verlief, sowie einem ionenimplantierten Si-Detektor. Damit wurde ein Auflösungsvermögen von Z/Delta-Z ~ ll für Molybdän (Z=42) und Z/Delta-Z ~ 10 für Ruthenium (Z=44) gemessen. Um den ionenimplantierten Si-Detektor durch einen kostengünstigeren Detektortyp ersetzen zu können, wurden PIN-Dioden als Detektoren für die Energie der Spaltfragmente getestet. Hierbei wurden die Testkriterien von Schmitt und Pleasonton [SP 66] zugrunde gelegt. Die PIN-Diode der Serienproduktion erreichte näherungsweise alle von Schmitt und Pleasonton angegebenen Kriterien und übertraf das Kriterium für Energieauflösung deutlich. Der Ansatz zur Entwicklung eines Detektors mit großem Raumwinkel ist eine Ionisationskammer, die ein elektrisches Feld besitzt, das parallel zur mittleren Spaltfragmenttrajektorie gerichtet ist. Eine solche Feldgeometrie läßt sich leichter auf einen großen Raumwinkel erweitern. Dies macht die ausschließliche Verwendung von Gitterelektroden notwendig, damit die Spaltfragmente die Elektroden ohne nennenswerten Energieverlust passieren können. Mit Hilfe der Methode der Finiten Elemente wurden Potentialverläufe in einer solchen Ionisationskammer simuliert und auf dieser Basis ein Prototyp konstruiert und gebaut, der mit einer Feldrichtung parallel zur mittleren Spaltfragmenttrajektorie arbeitet. Zum Test dieses Detektors wurde ein Experiment mit protoninduzierter Spaltung von 238-U am Van-de-Graaf-Beschleuniger des Instituts für Kernphysik der Universität Frankfurt am Main durchgeführt. Unter Hinzunahme eines hochreinen Ge-Detektors wurden Spaltfragment-Gamma-Koinzidenzen aufgenommen. Das Ansprechverhalten des Spaltfragmentdetektors wurde mit Hilfe der Energieverlustdaten von Northcliffe und Schilling [NS70] numerisch berechnet. Damit konnte ein Auflösungsvermögen von Z/Delta-Z ~ 29 für Yttrium (Z=39) erreicht werden. Dieses Auflösungsvermögen stimmt ungefähr mit dem von Sistemich et al. [SAB+76] mit Hilfe von massen- und energieseparierten Spaltfragmenten gemessenen Auflösungsvermögen eines DeltaE-E-Detektors mit einem senkrecht zur mittleren Spaltfragmenttrajektorie ausgerichteten elektrischen Feld überein. Eine Auflösung von Nukliden der schweren Spaltfragmentgruppe war in beiden Experimenten nicht möglich. Abschließend wurde auf der Basis der Geometrie des EUROSiB-Detektors [dAP+96] die Realisierbarkeit eines 2-Pi-Spaltfragmentdetektors studiert. Dabei zeigte sich, daß es möglich sein sollte, einen solchen Detektor zu konstruieren, obwohl dieser aufgrund des näherungsweise radialsymmetrischen elektrischen Feldes an den Grenzen des Ionisationskammerbereiches arbeiten wird. Mit Hilfe einer möglichst punktförmigen Quelle sowie einer Segmentierung der PIN-Dioden um eine bessere Ortsauflösung zu erreichen, sollte es möglich sein, ein Auflösungsvermögen zu erhalten, das der Größenordnung des Auflösungsvermögens des Prototypen entspricht. Mit dem vorgeschlagenen Detektor ließe sich eine absolute Effizienz von rund 74% in 2-Pi erreichen.
In dieser Arbeit wurde die Produktion geladener Kaonen in C+C und Si+Si- Kollisionen bei Strahlenergien von 40A und 158A GeV untersucht, die verwendeten Daten stammen vom CERN Experiment NA49. Die Kaonen wurden über den mittleren Energieverlust in den TPCs identifiziert, was die Messung der Phasenraumverteilung in einem großen Bereich möglich machte. Die Analyse basiert auf der dE/dx Auswertung aller NA49 TPCs (globale Analyse). Es wurde herausgefunden, dass bei den C+C und Si+Si Datensätzen die MTPC dE/dx Information unvollständig auf den DSTs gespeichert wurde. Da die Auflösung bei der Bestimmung des mittleren Energieverlusts beschränkt ist, ist die Teilchenidentifikation nur über statistische Methoden möglich. Im Kapitel 4 wird diese von Marco van Leeuwen mitentwickelte Methode beschrieben. Für die endgültigen Werte der Phasenraumverteilung der Teilchen müssen die identifizierten Kaonen noch auf Effekte korrigiert werden, die durch den Aufbau des Detektors und die verwendete Analysesoftware hervorgerufen werden. Die Korrekturen werden im Kapitel 5.4 beschrieben und angewandt, dies sind unter anderem geometrische Korrekturen, Akzeptanz und Zerfallskorrekturen. Die Ergebnisse bei 158A GeV wurden mit C.Höhnes Ergebnissen verglichen und stimmen im Rahmen der Fehler überein. Zur Übersicht wurden die Daten mit den anderen NA49-Daten zusammengefasst. Dabei ist zu erkennen dass die Verhältnisse < K+ > / < NW >, < K+ > / < + >, < K > / < NW > und < K > / < > im Bereich zwischen p+p und Si+Si schnell ansteigen und im weiterem Verlauf bis Pb+Pb kaum weiter ansteigen. Im Rahmen des Statistical Model of the Early Stage sind dies Anzeichen für einen Übergang in das Quark-Gluon-Plasma bei 40A GeV in Si+Si Kollisionen. Für eine Bestätigung dieser Vermutung sind jedoch weitere Messungen bei unterschiedlichen Energien und Systemen notwendig.
Mit dem World Wide Web sind der Bestand und die Verfügbarkeit von Informationen rapide angewachsen. Der Einzelne hat Schwierigkeiten, der Menge an Informationen und Wissen Herr zu werden und so der Informationsüberflutung zu begegnen. Dieses Problem wurde von Forschern und Technikern bereits frühzeitig erkannt und durch verschiedene Konzepte wie die intelligente Suche und die Klassifikation von Informationen zu lösen versucht. Ein weiteres Konzept ist die Personalisierung, die das bedarfsgerechte Zuschneiden von Informationen auf die Bedürfnisse des einzelnen Anwenders zum Ziel hat. Diese Arbeit beschreibt dazu eine Reihe von Personalisierungstechniken und im Speziellen das Kollaborative Filtern als eine dieser Techniken. Bestehende Schwächen des Kollaborativen Filterns wie zu dünn besetzte Benutzerprofile und das mangelnde Erkennen von Änderungen im Benutzerinteresse im Verlauf der Zeit werden durch verschiedene Ansätze zu entschärfen versucht. Dazu wird eine Kombination mit Inhaltsbasierten Filtern und die Verbreiterung der Datenbasis bewerteter Ressourcen betrieben. Ziel ist die Optimierung der Personalisierung, so dass Anwender besser auf sie abgestimmte Informationen erhalten. Ein Teil der beschriebenen Ansätze wird zudem in einem prototypischen Informationssystem umgesetzt, um die Machbarkeit und den Nutzen zu prüfen. Dazu werden der auf der Java 2 Enterprise Edition aufbauende WebSphere Applikationsserver von IBM und die relationale Datenbank DB2 UDB aus gleichem Hause eingesetzt.
Approximating Perpetuities
(2006)
A perpetuity is a real valued random variable which is characterised by a distributional fixed-point equation of the form X=AX+b, where (A,b) is a vector of random variables independent of X, whereas dependencies between A and b are allowed. Conditions for existence and uniqueness of solutions of such fixed-point equations are known, as is the tail behaviour for most cases. In this work, we look at the central area and develop an algorithm to approximate the distribution function and possibly density of a large class of such perpetuities. For one specific example from the probabilistic analysis of algorithms, the algorithm is implemented and explicit error bounds for this approximation are given. At last, we look at some examples, where the densities or at least some properties are known to compare the theoretical error bounds to the actual error of the approximation. The algorithm used here is based on a method which was developed for another class of fixed-point equations. While adapting to this case, a considerable improvement was found, which can be translated to the original method.
Es wurde eine Apparatur zur Messung von Heliumdoppelionisation durch Elektronenstoß, kurz (e,3e) genannt, aufgebaut. Die Aufgabe bestand im Aufbau eines Jetsystems mit horizontalem Jet, der Konstruktion eines Impulsspektrometers, das speziell auf die Anforderungen von (e,3e) ausgerichtet ist, dem Aufbau einer Kompensation für das Erdmagnetfeld, dem Test der einzelnen Komponenten und der Aufnahme von Orts- und Flugzeitspektren. Im Rahmen der Testmessungen konnte die Linearität der Detektoren überprüft werden, auch wurde ein Programm für die Ortsauslese der Hexanode geschrieben, des weiteren wurde der Elektronenstrahl fokussiert und der Jet eingestellt, so daß das Flugzeitspektrum zwischen Targetelektron und Rückstoßion und zwischen Projektil und Rückstoßion aufgenommen werden konnte. Anhand des Flugzeitspektrums zwischen Projektil und Rückstoßion wurde die Impulsverteilung der einfachgeladenen Heliumionen in Richtung der z-Achse bestimmt. Jedoch hat sich herausgestellt, daß die Impulsverteilung der Heliumionen vom Jet von der noch größeren Impulsverteilung der Atome vom warmen Heliumgas überlagert wird. Anhand des Rückstoßionendetektor-Ortsbildes konnte die Impulsverteilung der Heliumionen in x- und y-Richtung angegeben werden, da sich das warme Heliumgas im Restgasionisationsstreifen befindet und somit klar von Jetfleck zu trennen ist. Um für die wissenschaftliche Forschung verwertbare (e,3e)-Messungen an der Apparatur durchführen zu können, müssen einige zusätzliche Arbeiten vorgenommen werden; wie die Kalibrierung der beiden Spektrometer. Das ist notwendig für die Ermittlung der Zuordnungsfunktion zwischen Auftrefforten und -zeiten auf den Detektoren und den jeweiligen Impulskomponenten. Das Simulationsprogramm SIMION kann zwar Trajektorien von unterschiedlich geladenen Teilchen bei einem gegebenen Feld berechnen, jedoch können diese simulierten Werte um bis zu 10% von der „Realität“ abweichen. Des weiteren ist es notwendig, den Nullpunkt, also den Koordinatenursprung der Detektoren zu ermitteln, um die genauen Impulsvektoren bestimmen zu können. Ohne diese Kalibrierung können die ermittelten Impulsverteilungen der Rückstoßionen und Targetelektronen quantitativ nicht angegeben werden. Bei den Testmessungen hat sich gezeigt, daß der Elektronenstrahl divergent ist. Durch weitere Testmessungen an der Elektronenkanone muß das Problem behoben werden, da sonst die Energieauflösung des Projektilspektrometers nicht ausreichend ist....
Um Signaturen für die Erzeugung eines Quark-Gluon Plasmas zu untersuchen, wurden im Rahmen eines Energie-Scan Programmes mit dem Experiment NA49 am CERN-SPS Beschleunigerring bei 5 unterschiedlichen Strahlenergien Schwerionenkollisionen untersucht. Eine Möglichkeit, Informationen über die raum-zeitliche Struktur einer solchen Kollision zu erhalten, ist durch die Untersuchung von Bose-Einstein-Korrelationen gegeben. Die Untersuchung der Energieabhängigkeit dieser Korrelationen ist Gegenstand dieser Arbeit. Um die Dynamik der Kollisionen zu studieren, wird die Analyse für die einzelnen Energien in Abhängigkeit des mittleren transversalen Impulses und der Paarrapidität durchgeführt. In der Arbeit werden zunächst die theoretischen Grundlagen zur Untersuchung von Schwerionenkollisionen mit Hilfe von Bose-Einstein-Korrelationen erarbeitet. Nach einer kurzen Darstellung des Experimentes NA49 folgt eine detaillierte Beschreibung der Datenselektion und der verwendeten Analyse-Methode. Die Ergebnisse werden im Rahmen eines Modells zur Beschreibung einer Teilchenquelle interpretiert.
Im Rahmen der vorliegenden Arbeit wird eine systematische Untersuchung von Feldabschirmungseffekten bei Photostrommessungen in Abhängigkeit der optischen Anregungsdichte an GaAs/AlGaAs{Halbleiterubergitterstrukturen vorgenommen. Diese Untersuchungen gestatten es, Kontaktierungsmethoden zu finden, um das elektrische Feld innerhalb der Übergitterstruktur definiert einzustellen. Diese Untersuchungen waren notwendig geworden, da sowohl erste zeitaufgelöste (z.B. die THz-Emission von Bloch-Oszillationen), wie auch verschiedene nicht zeitaufgelöste Messungen (z.B. differentielle Elektroreflexionsmessungen) nahelegten, daß in der Probe kein elektrisches Feld einzustellen war. Die Untersuchungen zur anregungsdichteabhangigen Feldabschirmung wurden in einem Photostromaufbau durchgeführt, bei dem die Anregungsdichte durch die Verwendung eines abstimmbaren CW-Ti:Saphir Laser gegenüber Aufbauten mit einer Kombination aus Lampe und Monochromator weiter gesteigert werden kann. Als Indikator für die Feldabschirmung dient die Herausbildung der Wannier-Stark-Leiter in den Photostromspektren. Zur Untersuchung der Feldabschirmung wurde zunächst die Probenpraparation verändert. Anschließend wurde die Anregungsdichte systematisch variiert und es wurden verschiedene Probenstrukturen untersucht, unter anderem zum Vergleich mit den hier pin-Übergitter Dioden auch eine häufig verwendete Schottky-Diode. Es wurden verschiedene präparative Variationen durchgeführt, um den Einfluß der dotierten Schichten zu klären. So wurde beispielsweise die p+-Schicht heruntergeätzt, oder auf die p+-Schicht eine zusätzliche metallische semitransparente Cr/Au-Schicht aufgedampft, sowie Proben mit verschiedenen Dotierungsmaterialien (Berylium und Kohlenstoff) untersucht. Alle betrachteten Proben zeigen bei niedrigen Anregungsdichten eine Aufspaltung in Wannier-Stark-Zustände. Die Absorptionslinien, die in den Spektren die Übergänge darstellen, werden dann bei steigender Anregungsdichte zunächst asymmetrisch, treten erst bei niedrigeren äußeren Vorspannungen auf und verschwinden schließlich für sehr hohe Dichten ganz. Eine Analyse der systematischen Untersuchungen für die verschiedenen Probentypen ergibt, daß sich höchstwahrscheinlich Ladungstrager in der p+-Schicht ansammeln und so das äußere elektrische Feld abschirmen. Zusätzlich zeigt im Vergleich der zwei Dotierungsmaterialien die mit Kohlenstoff dotierte Probe eine bei deutlich höheren Anregungsdichten einsetzende Abschirmung gegenüber der mit Berylium dotierten Probe. Die konsequente Umsetzung der gewonnenen Erfahrungen führt zu einem neuen Probendesign. Die Vermeidung p+-dotierter Schichten, wobei die Proben nur mit einer semitransparenten Cr/Au-Schicht bedampft werden, hat dazu geführt, daß es schließlich möglich war, die kohärente Emission von Bloch-Oszillationen unter 45 ° zu messen. Weiterhin war es auch möglich, erste Messungen zur kohärenten Detektion der direkten Emission von Bloch-Oszillationen in einem Magnetfeld zu realisieren, diese Messungen werden daher nur kurz dargestellt. Je nach Feldstarke des elektrischen und des magnetischen Feldes wird die Emission der Bloch-Oszillationen durch die magnetische oder elektrische Quantisierung dominiert. In Vorbereitung auf zeitaufgelöste Messungen wurde im Rahmen dieser Arbeit zusätzlich auch ein neuer dichroitischer Strahlteiler verwendet und charakterisiert. Ein Indium-Zinn-Oxid-Film auf einem Glassubstrat ist im optischen Frequenzbereich transparent, besitzt aber im niedrigen THz-Frequenzbereich (0 bis 2.5 THz) eine relative Reflexion von 90% bis 80% und eine relative Transmission von konstant etwa 10% und kann somit als Alternative zu dem sonst häufig verwendeten Folien-Strahlteiler verwendet werden. Der komplexe Brechungsindex ñ kann numerisch aus den Reflexions- bzw. Transmissionsdaten bestimmt werden.
Als eines der Experimente am neuen Beschleuniger des Europäischen Labors für Teilchenphysik CERN, dem LHC, wird ALICE die Messung von Schwerionenkollisionen bei bislang unerreichten Energien ermöglichen. Die wichtigste Aufgabe ist dabei, verschiedene Phasen stark wechselwirkender Materie zu untersuchen und deren theoretisches Verständnis zu prüfen. Eine vielversprechende Observable ist die Rate produzierter Quarkonia, welche über ihren Zerfall in ein Leptonenpaar zu bestimmen ist. Daher ist die Hauptaufgabe des TRD, einem Subdetektor von ALICE, eine besonders gute Identifikation von Elektronen zu ermöglichen. Ein Teil der vorliegenden Arbeit war der Aufbau eines Teststandes für die Auslesekammern des TRD. Die verschiedenen vorgegebenen Messroutinen wurden zur Anwendung gebracht und wenn möglich verfeinert. Schließlich wurde die Prozedur der Langzeitsstabilitätsmessung verwendet, um den Koeffizienten der Elektronenanlagerung in der Gasmischung Ar-CO2 (70:30) zu bestimmen. Trotz der großen Ungenauigkeiten der Messung fügen sich die Ergebnisse sehr gut in die Systematik bereits vorhandener Daten bei ähnlichen Gasmischungen ein. Insbesondere bei Strahlenergien, wie sie am LHC verf¨ugbar sein werden, sind Kollisionen zweier Protonen eine wichtige Referenz für die Messung von Quarkonia in Schwerionenkollisionen. Dieser Studie zufolge ist es mit dem ALICE-TRD möglich, in 2 · 108 unselektierten (minimum bias) Proton-Proton-Kollisionen bei einer Schwerpunktsenergie von 14 TeV ein signifikantes J/ψ-Signal aufzunehmen. Die Messung schwererer Quarkonia-Zustände ist ohne Ereignisselektion nicht möglich. Der größte Beitrag zum Untergrund oberhalb einer invarianten Masse von 0.5 GeV/c2 ist durch Zerfälle von Teilchen mit offenem charm oder beauty zu erwarten. Die Like-Sign-Methode lieferte das beste Ergebnis bei der Berechnung eines unkorrelierten Untergrundspektrums. Auch bei Transversalimpulsen des Elektron-Positron-Paars oberhalb von etwa 4 GeV/c ist noch ein signifikantes J/ψ-Signal zu erwarten, zudem offenbar mit einem verhältnismäßig geringeren Beitrag durch Untergrund. Bei einem vorläufigen Einsatz von nur 4 der insgesamt 18 Supermodule des TRD ist ein zwar messbares, jedoch sehr reduziertes Signal zu erwarten. Bei einer noch geringeren Zahl scheint das ohne Ereignisselektion nicht möglich.
In dieser Arbeit wurden Untersuchungen zur Einstellung und Analyse des Sauerstoffgehalts an YBa2Cu3O6+x-Dünnfilmen durchgeführt. Zur Analyse des Sauerstoffgehalts wurde ein optisches Verfahren angewendet. Durch Messung der Transmission un der Reflektion in einem Spektralbereich von 2000nm bis 3000nm wird mit Hilfe des im Rahmen dieser Arbeit erstellten Markov-Modells die optische Leitfähigkeit bestimmt. Aus den gewonnen Werten der optischen Leitfähigkeit kann so auf den Sauerstoffgehalt in YBa2Cu3O6+x geschlossen werden.
Durch Prozessverbesserungen ist es möglich, den Ressourcenverbrauch einer Unternehmung zu reduzieren, ohne an den Eigenschaften des erstellten Gutes Abstriche vornehmen zu müssen. Intuitiv ist ersichtlich, dass eine bessere Ausnutzung der vorhandenen Ressourcen vorteilhaft für die Unternehmung ist. Mit dem Übergang zur Informationsgesellschaft stellt sich die Frage, inwiefern traditionelle Verfahren zur Prozessverbesserung sich auf die immer bedeutender werdende Ressource „Wissen“ anwenden lassen. Hat Wissen in Verfahren zur Erstellung physischer Güter noch eine nur unterstützende Funktion, so stellt es in Branchen, deren Focus in der Entwicklung von Wissen liegt, den wichtigsten „Produktionsfaktor“ dar. In vorliegendem Text wird der Versuch unternommen, bekannte Verfahren zur Qualitätsverbesserung von Prozessen dahingehend zu betrachten, inwieweit sie für eine Anwendung auf den Umgang mit Wissen geeignet sind. Dazu erfolgt eine Darstellung grundlegender Begriffe, gefolgt von Kriterien, anhand derer die Qualität von Wissensprozessen beurteilt werden kann. Danach werden verschiedene Qualitätsverbesserungsverfahren dargestellt und ihre Eignung zur Anwendung auf Wissensprozesse beurteilt. Abschließend findet sich ein Ausblick darauf, in welchen Gebieten weitere Überlegungen zu diesem Thema angebracht sind. Hingewiesen werden muss auf dem Umstand, dass vorliegende Arbeit aus Platzgründen einige mehr oder minder starke Reduzierungen enthält. Bekannte Qualitätsverbesserungsverfahren wurden in verschiedene Kategorien eingeteilt, aus diesen Kategorien wurden dann exemplarisch einige Verfahren für die nähere Betrachtung ausgewählt. Einen Anspruch auf Vollständigkeit erhebt der vorliegende Text somit nicht. Auch die Kategorisierung kann nicht als allgemeingültig angesehen werden, da die meisten Qualitätsverbesserungsverfahren starke Unterschiede aufweisen und somit das Einordnen in ein einheitliches Schema erschweren. Dennoch wurden gemeinsame Merkmale identifiziert und zur Bildung von Kategorien verwandt.
Die vorliegende Diplomarbeit beschreibt den Aufbau und erste Anwendungen einer neuartigen Technik zur Manipulation von Fallenpotentialen für Bose-Einstein-Kondensate. Das Dipolpotential, das ein gegen die atomare Resonanz verstimmter Laserstrahl auf die Atome ausübt, wird hierzu genutzt. Es wurde eine Apparatur aufgebaut, mit der sehr schnelle räumliche Bewegung und gleichzeitige Intensitätsänderung von Laserstrahlen erzielt wird. Durch schnelles Scannen des Laserstrahls in x- und y-Richtung und gleichzeitige Modulation seiner Intensität werden beliebige zeitgemittelte Potentiale erzeugt. Diese Potentiale wurden sowohl als räumliche und/oder zeitliche Modifikation herkömmlicher Magnetfallenpotentiale als auch als eigenständige Fallen mit neuartiger Geometrie verwendet. Mit diesem Aufbau wurden Experimente an Bose-Einstein-Kondensaten durchgeführt, bei denen die große räumliche und zeitliche Auflösung genutzt wurden. Die Speicherung von Atomen in zeitgemittelten, rotverstimmten optischen Fallen verschiedener Geometrie wurde demonstriert und eine durch das Scannen hervorgerufene Aufheizung der Probe wurde gefunden und untersucht. Dies ist die erstmalige Speicherung von Bose- Einstein-Kondensaten in zeitgemittelten Dipolfallen, deren Gestalt im Prinzip frei wählbar ist. Außerdem wurden kollektive Anregungen eines Bose-Einstein-Kondensats in einer Magnetfalle untersucht, die durch zeitgemittelte optische Potentiale induziert wurden. Der Schwerpunkt dieser Untersuchung waren insbesondere Moden mit hohem Drehimpuls, die in rein magnetischen Fallenpotentialen zuvor nicht angeregt worden waren. Bisherige Limitation von Gleichstrommagnetfallen, in denen nur zylindersymmetrische Moden angeregt werden konnten, wurden durch die Verwendung zeitgemittelten optischen Potentialen zusätzlich zum Magnetfallenpotential umgangen. In einem dritten Experiment konnte der suprafluide Charakter eines Bose-Einstein-Kondensats studiert werden. Die kritische Geschwindigkeit für die Bewegung eines Fremdobjektes duch das Kondensat wurde erstmals gemessen. Als Fremdobjekt diente ein gegen die atomare Resonanz blauverstimmter Laserstrahl, der auf die Atome ein repulsives Potential ausübt.
Mit dem Ende des Kalten Krieges hat sich für viele Beobachter der Abschied von der klassischen Allianzpolitik endgültig vollzogen. Ein Jahrhundert nach der großen Ära europäischer Gleichgewichtspolitik, nach zwei Welt(koalitions)kriegen und dem Ost-West-Gegensatz als einer Bündniskonfrontation radikalster Ausprägung, scheint die Weltpolitik endlich "im Umbruch" begriffen. Der Niedergang des Warschauer Paktes und der Triumph des demokratischen Modells des Westens könnte so mit dem "Ende der Geschichte" auch das Ende der Allianzen eingeläutet haben. In der Tat lässt sich auch bei der letzten verbliebenen großen Allianz, der NATO, nach dem notwendigerweise vollzogenen Funktionswandel nun letztlich doch ein Bedeutungsverlust verzeichnen. Als exemplarisch für diese Entwicklung mag die Reaktion des Bündnisses auf die Terroranschläge vom 11. September 2001 gelten: Nachdem die Allianz erstmals in ihrer Geschichte den Bündnisfall erklärt hatte, blieb sie schon im Afghanistankrieg als Organisation unbeteiligt. ...
Im heutigen Zahlungsverkehr übernehmen in zunehmendem Maße Zahlungen mit Kreditkarten eine entscheidende Rolle. Entsprechend der Verbreitung dieser Art des Zahlungsverkehrs nimmt ebenfalls der Mißbrauch mit diesem bargeldlosen Zahlungsmittel zu. Um die Verluste, die bei dem Kreditkarteninstitut auf diese Weise entstehen, so weit wie möglich einzudämmen, wird versucht, Mißbrauchstransaktionen bei der Autorisierung der Zahlungsaufforderung zu erkennen. Ziel dieser Diplomarbeit ist es zu bestimmen, in wie weit es möglich ist, illegale Transaktionen aus der Menge von Autorisierungsanfragen mit Hilfe adaptiver Algorithmen aufzudecken. Dabei sollen sowohl Methoden aus dem Bereich des Data-Mining, als auch aus den Bereichen der neuronalen Netze benutzt werden. Erschwerend bei der Mißbrauchsanalyse kommt hinzu, daß die Beurteilung der einzelnen Transaktionen in Sekundenbruchteilen abgeschlossen sein muß, um die hohe Anzahl an Autorisierungsanfragen verarbeiten zu können und den Kundenservice auf Seiten des Benutzers und des Händlers auf diese Weise zu optimieren. Weiter handelt es sich bei einem Großteil der bei der Analyse zu Verfügung stehenden Datensätze um symbolische Daten, also alpha-numerisch kodierte Werte, die stellvertretend für verschiedene Eigenschaften verwendet werden. Nur wenige der Transaktionsdaten sind analoger Natur, weisen also eine Linearität auf, die es erlaubt, "Nachbarschaften" zwischen den Daten bestimmen zu können. Damit scheidet eine reine Analyse auf Basis von neuronalen Netzwerken aus. Diese Problematik führte unter anderem zu dem verfolgten Ansatz. Als Grundlage der Analyse dienen bekannte Mißbrauchstransaktionen aus einem Zeitintervall von ungefähr einem Jahr, die jedoch aufgrund der hohen Anzahl nicht komplett als solche mit den eingehenden Transaktionen verglichen werden können, da ein sequentieller Vergleich zu viel Zeit in Anspruch nähme. Im übrigen würde durch einen einfachen Vergleich nur der schon bekannte Mißbrauch erkannt werden; eine Abstraktion der Erkenntnisse aus den Mißbrauchserfahrungen ist nicht möglich. Aus diesem Grund werden diese Mißbrauchstransaktionen mit Hilfe von Methoden aus dem Bereich des Data-Mining verallgemeinert und damit auf ein Minimum, soweit es die Verläßlichkeit dieser Datensätze zuläßt, reduziert. Desweiteren schließt sich eine Analyse der zu diesem Zeitpunkt noch nicht betrachteten analogen Daten an, um die maximale, enthaltene Information aus den Transaktionsdaten zu beziehen. Dafür werden moderne Methoden aus dem Bereich der neuronalen Netzwerke, sogenannte radiale Basisfunktionsnetze, verwendet. Da eine Mißbrauchsanalyse ohne eine entsprechende Profilanalyse unvollständig wäre, wurde abschließend mit den vorhanden Mitteln auf den zugrunde liegenden Daten in Anlehnung an die bisherige Methodik eine solche Profilauswertung und zeitabhängige Analyse realisiert. Mit dem so implementierten Modell wurde versucht, auf allgemeine Art und Weise, Verhaltens- beziehungsweise Transaktionsmuster einzuordnen und mit bei der Mißbrauchsentscheidung einfließen zu lassen. Aus den vorgestellten Analyseverfahren wurden verschiedene Klassifizierungsmodelle entwickelt, die zu guten Ergebnissen auf den Simulationsdaten führen. Es kann gezeigt werden, daß die Mißbrauchserkennung durch eine kombinierte Anwendung aus symbolischer und analoger Auswertung bestmöglich durchzuführen ist.
Die vorliegende Arbeit beschäftigt sich mit der Ermittlung des Preises von Optionen. Optionen sind spezielle Derivate, die wiederum Hull in seinem Buch definiert als: Ein Derivat ist ein Finanzinstrument, dessen Wert von einem anderen, einfacheren zu Grunde liegenden Finanzinstrument (underlying) abhängt . Ein underlying kann unter anderem auch eine Anleihe, eine Aktie oder der Umtauschkurs zweier Währungen sein....
Ziel dieser Arbeit war die Entwicklung einer ergänzenden Korrekturmethode auf die bei hohen Multiplizitäten auftretende Ineffizienz des im Rahmen des NA35-Experiments benutzten zentralen Spurdetektors, der NA35-Streamerkammer, sowie die Analyse der damit aufgenommenen Kern-Gold-Ereignisse. Diese, speziell für hohe Multiplizitäten und große Rapiditäten konzipierte Korrekturmethode zeigt im Bereich um Midrapidity gute Übereinstimmung mit den traditionellen Korrekturmethoden als auch mit den Daten des zweiten, zur Streamerkammer komplementären Spurdetektors, der NA35-TPC, für hohe Rapiditäten. Es ist somit eine Erweiterung der Streamerkammerakzeptanz je nach Stoßsystem um 0.5-1 Rapiditätseinheiten gelungen, die eine 4-Pi-Extrapolation auf den vollständigen Phasenraum erlaubt. Die Analyse der damit korrigierten Daten zeigt für die Rapiditätsverteilung der negativen Hadronen eine systematische Verschiebung der gemessenen sowie extrapolierten mittleren Rapidität weg von Midrapidity des Nukleon-Nukleon-Stoßes bei zunehmender Asymmetrie des Stoßsystems. Die Formen der Rapiditätsverteilungen scheinen sich jedoch zu gleichen und die Multiplizität skalierte in etwa mit dem Massenverhältins der Projektilkerne. Ebenso zeigt die spezifische Produktionsrate für negative Hadronen pro partizipierendem Nukleon keine signifikante Projektilabhänigkeit, sie liegt bei ~ 1.7 h-/N part.Protons. Die Rapiditätsverteilungen der Nettoprotonen skalieren oberhalb midrapidity mit der Projektilmasse und deutet auf keine Abhängigkeit des stoppings von der Größe des Projektilkerns hin. Sämtliche Projektilnukleonen scheinen im wesentlich schwereren Targetkern demnach gleichviel Energie zu deponieren (gleich stark abgebremst zu werden). Die Transversalimpulsspektren der Nettoprotonen lassen sich gut durch die Verteilungen thermischer Quellen beschreiben, wobei sich für das Stoßsystem 2d+197Au eine Temperatur der Quelle von ungefähr 160MeV, also im Bereich des Hagedorn-Limits, ergibt. Im Falle der 16O+197Au-Daten ergeben sich Temperaturen größer 200MeV. Diese Arbeit schließt die Akzeptanzlücke zwischen den zwei komplimentären Spurdetektoren im NA35-Experiment und ermöglicht damit die Studie von Schwerionenstößen im nahezu vollständigen Phasenraum für zentrale Kern-Gold-Kollisionen.
Diese Diplomarbeit beschäftigt sich mit dem Entwurf und der Implementierung der Auslesefirmware für den GET4 Chip im Rahmen des CBM (Compressed Baryonic Matter) Experiments.
Physikalische Experimente mit Teilchenbeschleunigern, wie das geplante CBM Experiment, erzeugen große Mengen an Sensordaten, die aufbereitet, gespeichert und ausgewertet werden müssen. Der GET4 Chip ist ein möglicher TDC (Time to Digital Converter) Chip mit 4 Kanälen für den TOF (Time of Flight) Detektor des CBM Experiments. Der GET4 Chip erzeugt einen Zeitstempel für die Treffer der TOF RPC (Resistive Plate Chambers) Sensoren.
Die Auslese der GET4 Daten wird von einem ROC (Readout Controller Board) übernommen, das mit einem FPGA (Field Programmable Gate Array) ausgestattet ist. Das ROC Board lässt sich über die ROC Firmware für verschiedene Einsatzzwecke flexibel konfigurieren, so dass damit auch andere Frontend Elektronik, wie z.B. der n-XYTER Chip, ausgelesen werden kann. Während dieser Diplomarbeit wurde das SysCore2 mit einem Virtex-4 FX20 als ROC verwendet. Inzwischen ist das SysCore3 verfügbar, das einen deutlich leistungsfähigeren FPGA besitzt. Die bisher verfügbare Firmware für den GET4 war für den Betrieb im 24 Bit Modus konzipiert.
Der bevorzugte Auslesemodus für den GET4 ist der 32 Bit Modus, da der 24 Bit Modus einige Beschränkungen aufweist und die volle Funktionalität des GET4s nur im 32 Bit Modus zur Verfügung steht. Im Rahmen dieser Diplomarbeit wurde die vorhandene 24 Bit Firmware für den 32 Bit Modus erweitert, so dass der zweite Datenkanal des GET4s, sowie der DDR (Double Data Rate) Modus für die Datenübertragung zur Verfügung steht. Neben der Erhöhung der Datenübertragungsraten stand die mögliche Skalierbarkeit der Firmware für die Auslese möglichst vieler GET4 Chips im Fokus. Dazu musste die Firmware umgestaltet werden, um die begrenzten BRAM Ressourcen des FPGAs nicht unnötig zu belegen.
Eine weitere wichtige Neuerung der 32 Bit Firmware ist die automatische Synchronisation der Epochen zwischen ROC und GET4. Dazu werden die Epochennachrichten der GET4s mit der Epoche des ROCs verglichen und bei Bedarf Synchronisationsnachrichten mit der korrekten Epoche an die GET4s gesendet.
Der Theorieteil befaßt sich mit den bisher vorliegenden Erkenntnissen über Lerntypen. Anregungen zu dieser Untersuchung kamen von den Neurophysiologen ECCELS J.C. und POSNER M.I.,von den Pädagogischen Psychologen WEIDENMANN B und GAAL J., von dem Pädagogen VESTER F. und dem Psychologen PAIVIO A., auf dessen Thesen von den drei Kodierungssystemen (1964) die Forschungsansätze zu diesem Thema beruhen. Darüber hinaus wurde der kommerzielle Hirndominanztest von HERMANN N. und einige Arbeiten von Vertretern des Neurolinguistischen Progammierens berücksichtigt.
Untersucht wurde die Auswirkungen der visuellen, auditiven und kinästhetischen Unterrichtsformen auf zwölf Jugendliche im Alter zwischen acht und zwölf Jahren. Im Anschluß an die Untersuchung wurde den Kindern ein Fragebogen vorgelegt, mit dessen Hilfe die präferierten Sinneskanäle erfaßt werden sollten. Dies schließt insofern eine Forschungslücke, als hier zum erstenmal die Modalitäten von Probanden festgestellt wurden. Dies befähigt zur Beantwortung der Frage: Wie unterrichte ich wen?
Die Kinder hatten am Jugendtraining des Licher Golfclubs teilgenommen und standen in den letzten drei Wochen der Saison 1996 für den Test zur Verfügung. Der Lernerfolg wurde ausschließlich durch einen Vergleich der Leistung vor und nach dem Unterricht ermittelt. Hierbei wurde beobachtet, daß jedes Kind eine bestimmte Reihenfolge von Lernmodalitäten bevorzugt. Ein für diese Situation entwickelter Fragebogen stimmte in 7 von 12 Fällen mit den Testergebnissen überein. Die Lernleistung kann bei Ansprache der präferierten Sinnesmodalitäten optimiert werden.
Die Ergebnisse haben gezeigt, daß Zusammenhänge zwischen der Instruktion präferierter Sinnesmodalitäten und der Lernleistung bestehen.
Der letzte Teil der Arbeit befaßt sich mit der praktischen Umsetzbarkeit der Ergebnisse und ihren möglichen Auswirkungen auf die Kommunikation.
HADES ist ein hochauflösendes Dielektronenspektrometer, welches derzeit an der GSI in Darmstadt aufgebaut wird. Ziel ist die Messung von Leptonenpaaren, die in schwerioneninduzierten Reaktionen entstehen. Die invariante Masse der Leptonenpaare soll mit einer Genauigkeit von ~ 1% bestimmt werden. Das HADES-Detektorsystem verwendet Vieldraht-Proportionalkammern zur Rekonstruktion der Teilchenspuren. Aus diesen werden in Verbindung mit der Feldinformation des supraleitenden Magneten die Teilchenimpulse gewonnen, welche wiederum in die invariante Masse eingehen. Über die Driftzeit1 werden die genauen Durchstoßpunkte der Teilchenbahnen durch die verschiedenen Ebenen der Driftkammern erhalten. Dazu ist es erforderlich, die Driftgeschwindigkeit der Elektronen im verwendeten Zählgas zu kennen. Änderungen im Mischungsverhältnis des Zählgases (Helium und Isobutan), aber auch Verunreinigungen des Gases (H2O) können die Driftgeschwindigkeit beeinträchtigen. Verunreinigungen (O2) können weiterhin die Effizienz der Driftkammern verschlechtern. Ziel war deshalb der Aufbau eines Monitorsystems, welches auf Änderungen der Gasmischung und auf eventuelle Kontaminationen (im wesentlichen O2 und H2O) sensitiv ist. Zu diesem Zweck wurde ein Driftgeschwindigkeitsmonitor getestet. Er erlaubt eine Messung der Driftgeschwindigkeit mit einer Genauigkeit von bis zu 0,1% (sigma), allerdings bei anderen elektrischen Feldstärken als in den HADES Driftkammern. Während der einwöchigen Strahlzeit im Mai 2000 wurde die Driftgeschwindigkeit mit dem Prototypen des Driftgeschwindigkeitsmonitors gemessen. Die druckkorrigierte Driftgeschwindigkeit erlaubt Rückschlüsse auf die Gasqualität. Die Messungen ergaben, daß die Ortsauflösung in den HADES Driftkammern nicht von Driftgeschwindigkeitsschwankungen dominiert wird. Eine Extrapolation der Meßergebnisse auf die in den HADES Driftkammern vorherrschenden Feldstärkeverhältnisse ist möglich. Eine relative Signalhöhenmessung ist sensitiv auf den Sauerstoffgehalt des Zählgases bis in den ppm-Bereich. Zwei endgültige Versionen des Driftgeschwindigkeitsmonitors wurden aufgebaut und in das HADES Detektorsystem integriert. Je ein Driftgeschwindigkeitsmonitor wurde am Gasein- und am Gasausfluß aufgestellt, um die Driftgeschwindigkeit dort zu messen und Vergleiche zwischen Frischgas und aus den Kammern ausströmendem ”alten“ Gas zuzulassen. Die Auslese und Datenanalyse des Monitorsystems wurde automatisiert.
In der vorliegenden Arbeit ist es gelungen, hinreichend ebene Goldoberflächen als Substrate für Self-assembled Monolayers durch Aufdampfen auf Glimmer herzustellen und herauszuarbeiten, unter welchen Bedingungen sich die Struktur dieser Goldschichten für die Aufbringung der Monolagen verbessern lässt. Hervorzuheben ist hierbei, dass das Erhitzen des Glimmers während des Aufdampfvorgangs die Rauigkeit der Goldoberfläche reduziert. Vier unverzweigte Alkanthiole (HS-C10H20-CH3, HS-C15H30-CH3, HS-C17H34-CH3 und HS-C10H20-COOH) wurden in vier verschiedenen Konzentrationen in Ethanol gelöst und auf das Substrat aufgebracht. Die Thiole unterschieden sich in Kettenlänge (11, 16 und 18 C-Atome) sowie in der Kopfgruppe (CH3 und COOH). Die entstandenen Filme wurden ebenso wie die verwendeten Goldoberflächen mit dem Rasterkraftmikroskop im Tappingmode, im Contactmode und zum Teil im Frictionmode sowie unter Ethanol vermessen. Zwei Spitzen des Rasterkraftmikroskops wurden durch das Aufbringen einer Monolage (HS-C15H30-CH3 und HS-C10H20-COOH) funktionalisiert. Alle Monolagen wurden mit diesen Spitzen vermessen. Die gewonnenen Abbildungen lassen bis zu einem gewissen Punkt Rückschlüsse über die Beschaffenheit der Self-assembled Monolayers und ihre Eigenschaften zu, dies gilt vor allem für die Messungen im Frictionmode und die Abbildungen, die mit funktionalisierten Spitzen erzielt wurden. Da die Monolagen offensichtlich ohne sichtbare Fehlstellen ausgebildet wurden, fällt es schwer, die Abbildung der Filme von denen der Goldoberflächen eindeutig zu unterscheiden, auch wenn die ausgewerteten Linienprofile zeigen, dass die Rauigkeit der Oberfläche durch die Aufbringung von Monolagen verringert wird. Für zukünftige Messungen sollten die Monolagen vor der Vermessung durch Micro-Printing strukturiert werden. Zwischen Monolagen und funktionalisierten Spitzen wurden Kraft-Abstandskurven und Force-Volume-Abbildungen unter Laborbedingungen aufgezeichnet. Die ermittelten Werte liegen um Größenordnungen über den Werten aus der Literatur, was sich durch den auf den Monolagen unterschiedlich starken Wasserfilm, und den daraus resultierend, wirkenden Kapilarkräften bei der Messung erklären lässt. Diese Messungen sollten unter Flüssigkeit wiederholt werden, um aussagekräftige Ergebnisse zu erzielen. Es gelang dennoch durch diese Messungen, die Existenz der Monolagen auf Substrat und Spitze eindeutig nachzuweisen.
Entwurf und Realisierung von Sicherheitsmechanismen für eine Infrastruktur für digitale Bibliotheken
(2002)
Angesichts der überragenden Bedeutung der modernen Kommunikationstechnik in allen Lebensbereichen kommt auch den digitalen Bibliotheken ein wachsendes Gewicht zu. Dabei spielen nicht nur die platzsparende Speicherung, sondern auch die schnelle Datenübermittlung und der unmittelbare Zugang zu den Dokumenten eine wichtige Rolle. Da eine solche Bibliothek über ein offenes Netz betrieben wird, erhalten in diesem Zusammenhang Sicherheitsaspekte ein essentielles Gewicht. Die vorliegende Diplomarbeit geht diesen Fragen nach und zeigt Wege auf, wie die bestehenden Sicherheitsrisiken minimiert werden können. Ziel dieser Arbeit war daher der Entwurf und die Realisierung von Sicherheitsmechanismen für eine Infrastruktur für digitale Bibliotheken. Dabei wurde speziell auf die INDIGO-Infrastruktur eingegangen; sie stellt eine verteilte Infrastruktur für digitale Bibliotheken dar. Der erste Teil dieser Diplomarbeit enthält eine Einführung in die Grundlagen der INDIGO-Infrastruktur und der Sicherheit. In Kapitel [*] wurden die INDIGO-Infrastruktur und ihre Komponenten erläutert; in Kapitel [*] folgte anschließend die Beschreibung einiger kryptographischer Verfahren und Sicherheitsprotokolle. Im zweiten Teil dieser Arbeit wurden Sicherheitsmechanismen für die INDIGO-Infrastruktur entworfen. In dieser Entwurfsphase erfolgte zunächst in Kapitel [*] die Sicherheitsanalyse der Infrastruktur. Basierend auf dieser Analyse wurden in Kapitel [*] Sicherheitskonzepte für diese Infrastruktur entwickelt. Während der gesamten Entwurfsphase standen die Sicherheitsanforderungen Vertraulichkeit, Authentizität, Integrität, Verbindlichkeit und die Autorität stets im Mittelpunkt des Interesses. Im dritten und letzten Teil der Arbeit wurden die Sicherheitsmechanismen für die INDIGO-Infrastruktur realisiert. Dabei wurden die in Abschnitt [*] beschriebenen Sicherheitsrichtlinien der Infrastruktur implementiert. Die Beschreibung der Implementierung erfolgte in Kapitel [*]. Die wichtigsten Modifikationen des INDIGO-Servers betrafen folgende Punkte: * Sicherung und Aufbau der verbindlichen Kommunikationskanäle durch den Einsatz von SSL- bzw. TLS-basierten Server-zu-Server Verfahren. * Realisierung von Sicherheitsmechanismen zur Verifikation der digital signierten Dokumente und Dokumentmethoden. * Erweiterung des INDIGO-Servers um feingranuliert konfigurierbare Zugriffsmechanismen, die verteilt auf drei unterschiedliche Ebenen den Zugriff der Anwender (bzw. Dokumentmethoden) auf seine Ressourcen kontrollieren. Neben den Modifikationen des INDIGO-Servers wurden zwei neue Clients zur Kommunikation mit dem INDIGO-Server und eine Anwendung zur Erzeugung der digitalen Signatur der Dokumente entwickelt. Ferner wurden einige neue Metadokumente und Dokumentmethoden erstellt, um die neuen Eigenschaften der Infrastruktur zu demonstrieren. Bei der Realisierung der Sicherheitsmechanismen wurde größter Wert auf die Abwärtskompatibilität, Konfigurierbarkeit und Modularität gelegt. Die Abwärtskompatibilität zur ursprünglichen Infrastruktur wird beispielsweise erreicht, indem die bereits existierenden Metadokumente und Dokumentmethoden bei dem modifizierten Server auch verwendet werden können. Diese müssen - falls nötig - minimal um die digitale Signatur der Autoren ergänzt werden. Das Sicherheitsverhalten des INDIGO-Servers läßt sich beliebig über seine Konfigurationsdatei ändern (Konfigurierbarkeit). Alle wichtigen Sicherheitsmechanismen des modifizierten Servers lassen sich den Wünschen des Betreibers anpassen. Dadurch ist sichergestellt, daß jeder Betreiber den Server seinen jeweiligen Sicherheitsbedürfnissen entsprechend betreiben kann. Der Betreiber kann beispielsweise über die Einstellung seiner Konfigurationsdatei bestimmen, ob die Clients sich bei der Kommunikation mit seinem Server identifizieren müssen. Zudem kann er beispielsweise festlegen, ob die Dokumentmethoden, die keine korrekte digitale Signatur besitzen, ausgeführt werden dürfen oder nicht. Die Konfigurierbarkeit des Servers hinsichtlich der Sicherheitsmechanismen geht sogar so weit, daß man den Server im Normalmodus betreiben kann; in diesem Modus sind alle Sicherheitsmechanismen des Servers ausgeschaltet. Die Modularität hinsichlich der Sicherheitsmechanismen wurde bei der Implementierung durch die Verteilung dieser Mechanismen auf die unterschiedlichen und eigenständigen Klassen erzielt, die jeweils eine wohldefinierte Eigenschaft und Aufgabe besitzen. Diese Vorgehensweise führt dazu, daß bei einer Weiterentwicklung des Servers um neue Sicherheitsdienste nur die wenigen betroffenen Klassen modifiziert werden müssen, ohne daß der gesamte Server davon betroffen ist. So kann der INDIGO-Server beispielsweise um den Authentisierungsdienst Kerberos [Stei88] erweitert werden, in dem nur die entsprechende Authentisierungsklasse des Servers (IndigoAuthorization-Klasse) ergänzt wird.
Euklidische Zerlegungen nicht-kompakter hyperbolischer Mannigfaltigkeiten mit endlichem Volumen
(1998)
Epstein and Penner constructed in [EP88] the Euclidean decomposition of a non-compact hyperbolic n-manifold of finite volume for a choice of cusps, n >= 2. The manifold is cut along geodesic hyperplanes into hyperbolic ideal convex polyhedra. The intersection of the cusps with the Euclidean decomposition determined by them turns out to be rather simple as stated in Theorem 2.2. A dual decomposition resulting from the expansion of the cusps was already mentioned in [EP88]. These two dual hyperbolic decompositions of the manifold induce two dual decompositions in the Euclidean structure of the cusp sections. This observation leads in Theorems 5.1 and 5.2 to easily computable, necessary conditions for an arbitrary ideal polyhedral decomposition of the manifold to be a Euclidean decomposition.
In dieser Arbeit wurde die Pionenproduktion in C + C und Si + Si - Kollisionen bei 40A GeV und 158A GeV untersucht. Dazu wurden zwei vollkommen unterschiedliche Methoden, die dE/dx- Teilchenidentifizierung und die h- - Methode, bei der der Anteil von Nicht- Pionen simuliert wird, verwendet. Die Ergebnisse beider Methoden stimmen gut überein, die Differenz fließt in den systematischen Fehler ein. Für die Bestimmung der totalen Multiplizitäten und mittleren transversalen Massen wurde die h- - Methode aufgrund ihrer größeren Akzeptanz gewählt. Zusätzlich wurde für 40A GeV C + C eine zentralitätsabhängige Analyse der Pionenmultiplizitäten vorgenommen. Die Ergebnisse dieser Analyse sollten jedoch als vorläufig angesehen werden. Die Ergebnisse meiner Analyse wurden mit der von C. Höhne [14] bei 158A GeV verglichen, sie stimmen innerhalb der Fehler überein. Es wurden Modelle zur Simulation von Kollisionen (UrQMD, Venus) vorgestellt und angewandt, um die experimentellen Ergebnisse mit den Vorhersagen der Simulationen zu vergleichen. Ein weiteres Modell (Statistical Model of the Early Stage) wurde vorgestellt, welches die qualitative und anschauliche Interpretation der Daten erlaubt. Die Ergebnisse wurden als Energie- und Systemgrößenabhängigkeitsplots zusammen mit anderen NA49- Ergebnissen, Ergebnissen anderer Experimente und Simulationsvorhersagen gezeigt und diskutiert. Der Übergang von der Unterdrückung der Pionenproduktion in Pb+Pb - Kollisionen relativ zu p+p zu einer Erhöhung der Pionenproduktion bei niedrigen SPS-Energien wurde auch bei kleinen Systemen, C + C und Si + Si , beobachtet. Eine Interpretation der Pionenmultiplizitäten mit den Statistical Model of the Early Stage legt die Vermutung nahe, dass bereits bei 40A GeV C + C - Kollisionen Quark- Gluon- Plasma gebildet wird. Diese Vermutung muss allerdings durch die Betrachtung weiterer Observabler noch bestätigt werden.
Diese Arbeit befasst sich mit der Analyse der ersten Proton-Proton-Kollisionen, die mit dem ALICE-Experiment am LHC gemessen wurden. Der Schwerpunkt der Arbeit liegt dabei auf der Analyse des mittleren Transversalimpulses, einer Messgröße, mit der sich die Transversalimpulsspektren geladener, nichtidentifizierter Teilchen charakterisieren lassen. ALICE misst bei sqrt(s) = 900 GeV einen mittleren Transversalimpuls von
<pT> iINEL = 0;483 +/- 0;001(stat.) +/- 0;007(sys.) GeV=c (6.1)
<pT >NSD = 0;489 +/- 0;001(stat.) +/- 0;007(sys.) GeV=c (6.2)
Im Vergleich mit den Messungen anderer Experimente bei gleichem p s misst ALICE einen etwas höheren mittleren Transversalimpuls.
Neben der Analyse des mittleren Transversalimpulses des inklusiven Spektrums wird auch die Analyse als Funktion der Multiplizität erläutert. Mit der skalierten Multiplizität z = nacc= hnacci können die mit ALICE gemessenen Werte mit den Messungen von UA1 verglichen werden. Für z > 1 stimmen die Daten innerhalb der Fehler überein, für z < 1 divergieren die Daten von ALICE und UA1. Im weiteren Verlauf werden zwei Methoden vorgestellt, mit denen ein Übergang von der gemessenen Multiplizität zu einer korrigierten Multiplizität vorgenommen werden kann. Beide Methoden basieren auf einer mit PYTHIA generierten Korrelationsmatrix, die den Zusammenhang zwischen der generierten Multiplizitätsverteilung und der rekonstruierten Multiplizitätsverteilung enthält. Bei der einen Methode (A) werden die gemessenen Daten mit der Korrelationsmatrix gewichtet auf die generierte Multiplizität übertragen. Für die andere Methode (B) wird die Matrix zunächst entfaltet, um dann mit der entfalteten Multiplizitätsverteilung eine neue Matrix zu generieren. Mit dieser neuen Matrix wird dann jeder gemessen Multiplizitätsklasse eine wahrscheinlichste wahre Multiplizität zugewiesen. Die Ergebnisse beider Methoden sind vergleichbar. Für die weitere Analyse wird jedoch Methode A verwendet, da die Zuordnung in Methode B nicht eindeutig ist. Die mit dieser Methode analysierten Daten werden dann mit verschiedenen Simulationspaketen verglichen. Dabei stellt sich heraus, dass der PYTHIA-Tune Perugia0 die Daten am besten, jedoch nicht exakt, beschreibt. Mit den gemessenen Daten lassen sich die Modelle weiter optimieren, um eine Vorhersage bei höheren Strahlenergien machen zu können...
In einer Evaluation unterschiedlicher Auswahl- und Ausbildungskonzepte der gewerblichen Berufsgenossenschaften (BGen) wurden die Hypothesen geprüft, daß durch Testverfahren auswählende BGen bessere Ausbildungsleistungen erzielen als nur durch Interview auswählende, praxisorientierte Ausbildungen zu schlechteren Prüfungsleistungen führen, zwischen der Ausbildungsleistung und dem Leistungsdruck sowie der Einstellung zur Arbeit ein Zusammenhang besteht und diese Variablen sich daher zur Erhöhung des varianzaufklärenden Werts des zweifach gestuften Faktors Selektion eignen. Für die Wirkung des Faktors Selektion wurde die Praxisorientierung als Moderatorvariable vermutet. Es gelang, 75% aller BGen zu erfassen. Als unabhängige Variable wurde in einem ex-post-facto Design der Faktor Selektion auf den Stufen Interview und Test aufgefaßt. In einem einfaktoriellen univariaten kovarianzanalytischen Modell dienten Leistungsdruck, Einstellung zur Arbeit und Praxisorientierung als Kovariaten. Für jede BG ist die Selektionsmethode und die Praxis der Interviewführung durch schriftliche bzw. telefonische Befragung ermittelt worden. Der Ausbildungserfolg wurde durch die Auswertung eines zentralen Notenarchivs erhoben. Durch einen Fragebogen an die 1994/95 geprüften Personen wurden Leistungsdruck, Praxisorientierung und Einstellung zur Arbeit als Kennwerte für die BG erfaßt. Testverfahren und Interview als Stufen des Faktors Selektion eigneten sich nicht zur Vorhersage des Ausbildungserfolgs. Bei den BGen, die durch Test auswählten, wurde eine deutlich größere Variabilität der Noten nachgewiesen als bei den interviewenden BGen. Eine praxisorientierte Ausbildung ging mit schlechten Prüfungsnoten einher (r = -.13). Es bestand keine Wechselwirkung zwischen Praxisorientierung und Auswahlmethode. Die Aufklärung der Notenvarianz durch die Auswahlmethode konnte durch die Kovariaten nur von 2% auf 3% erhöht werden. Mit Einstellung zur Arbeit und Praxisorientierung als Kovariaten konnten insgesamt 17% Varianz aufgeklärt werden. Die Qualität der Messung der Variablen, Gründe für die große Variabilität der Noten unter der Testbedingung sowie die Frage nach der Relevanz der Befunde zur Praxisorientierung der Ausbildung wurden diskutiert.
Diese Arbeit befasst sich mit der Zerlegung von Irrfahrten und Lévy Prozessen an ihrem Minimum. Bis auf rudimentäre Vorkenntnisse der höheren Stochastik und einige wenige aber wichtige Sätze stellt die Arbeit alle notwendigen Begriffe und Sätze zur Verfügung, die für das Verständnis und die Beweise benötigt werden. Diese bewusste Entscheidung zur Ausführlichkeit auch bei grundlegenden Dingen hat zwei Hintergründe: Zum einen bleibt die Arbeit damit auch für Leser mit geringen Vorkenntnissen interessant, und zum anderen entsteht so keine lange und unübersichtliche Kette von Verweisen und Zitaten, die das Verständnis des dargestellten Themas erschwert und die logischen Schlüsse nur noch von Spezialisten vollständig nachvollzogen werden können. Ein weiterer Nebeneffekt ist die Tatsache, dass Verwirrungen aufgrund unterschiedlicher Interpretationen eines Begriffs vermieden werden. Das weitere Vorwort teilt sich in zwei Abschnitte; zum einen in den Abschnitt der Irrfahrten und zum anderen in den Abschnitt der Lévy-Prozesse. Diese Einteilung spiegelt auch die Strukturierung der Arbeit selber wieder; ein Blick in das Inhaltsverzeichnis verrät, dass zuerst Irrfahrten und danach Lévy Prozesse behandelt werden.
Ziel dieser Arbeit war es, ein sicheres und trotzdem effizientes Preprocessing zu finden. Nach den zurückliegenden Untersuchungen können wir annehmen, dies erreicht zu haben. Wir haben gezeigt, daß eine minimale Workload von Attacken von 272 mit nur 16 Multiplikationen pro Runde und 13 gespeicherten Paaren (ri, xi) erreicht werden kann. Mit der in Abschnitt 12.3 erklärten Variation - der Wert rº k geht nicht in die Gleichungen mit ein - erreichen wir sogar eine Sicherheit von 274. In diesem Fall können wir die Anzahl der gespeicherten Paare auf 12 verringern. Auch von der in Abschnit 12.5 besprochenen Variation erwarten wir eine Erhöhung der Sicherheit. Ergebnisse dazu werden bald vorliegen. Folgender Preprocessing Algorithmus erscheint z.B. nach unserem derzeitigen Wissensstand geeignet: Setze k = 12, l0 = 7, l1 = 3, d0 = 4, d1 = 5, h = 4, ¯h = 1. Initiation: lade k Paare (r0 0, x00 ) . . . , (r0 k 1, x0 k 1) mit x0i = ®r0 i mod p. º := 1. º ist die Rundennummer 1. Wähle l1 2 verschiedene Zufallszahlen a(3, º), . . . , a(l1, º) 2 {º + 1 mod k, . . . , º 2 mod k} a(1, º) := º mod k, a(2, º) := º 1 mod k W¨ahle l1 2 verschiedene Zufallszahlen f(3, º), . . . , f(l1, º) 2 {0, . . . , d1 1}, f(1, º) zuf¨allig aus {h, . . . , d1 1} und f(2, º) zuf¨allig aus {¯h, . . . , d1 1} rº k := rº ºmodk + l1 Xi=1 2f(i,º)rº 1 a(i,º) mod q xk = xºº modk · l1 Yi=1 (xº 1 a(i,º))2f(i,º) mod p 2. w¨ahle l0 1 verschiedene Zufallszahlen b(2, º), . . . , b(l0, º) 2 {º + 1 mod k, . . . , º 1 mod k} b(1, º) := º mod k W¨ahle l0 verschiedene Zufallszahlen g(1, º), . . . , g(l0, º) 2 {0, . . . , d0 1} rº ºmodk := l0 Xi=1 2g(i,º)rº 1 b(i,º) mod q xºº modk = l0 Yi=1 (xº 1 b(i,º))2g(i,º) mod p 3. verwende (rº k, xº k) f¨ur die º te Signatur (eº, yº) gem¨aß yº = rº k + seº mod q 4. º := º + 1 GOTO 1. f¨ur die n¨achste Signatur Die Zufallszahlen a(3, º), . . . , a(l, º), b(2, º), . . . , b(l, º), f(1, º), . . . , f(l, º) und g(1, º), . . . , g(l, º) werden unabhängig gewählt. Dies ist selbstverständlich nur ein Beispiel. Unsere Untersuchungen sind noch nicht abgeschlossen. Wir glauben aber nicht, daß feste Werte a(i, º) und b(i, º) ein effizientes Preprocessing definieren. Wir haben einige Variationen mit solchen weniger randomisierten Gleichungen studiert und immer effiziente Attacken gefunden.
Der Bolthausen-Sznitman Koaleszent ist ein zeitstetiger Markovprozess mit Werten in der Menge der Partitionen der natürlichen Zahlen. Der Prozess startet in Singletons und seine Dynamik erlaubt lediglich Übergänge in gröbere Partitionen. In dieser Arbeit wird der Bolthausen-Sznitman Koaleszent zum Zeitpunkt seines letzten Übergangs analysiert. Das Hauptresultat ist ein Grenzwertsatz, welcher eine gemeinsame Aussage sowohl über die Blockanzahl als auch über die Blockgrößen des Koaleszenten zu diesem Zeitpunkt macht. Dafür wird der Koaleszent durch ein gewisses Abholzverfahren zufälliger rekursiver Bäume modelliert, wobei diese Bäume wiederum anhand von Yule-Prozessen generiert werden.
Gegenstand dieser Arbeit ist die Entwicklung eines CH-Rebunchers mit Energievariation für die sich in der Entstehungsphase befindliche Beschleunigeranlage des FRANZ Projektes am Institut für Angewandte Physik der Goethe Universität Frankfurt am Main.
Die FRANZ Experimente sollen Fragen der nuklearen Astrophysik und der Materialforschung beantworten. Experimente zu Neutroneneinfangsquerschnitten werden im Vordergrund stehen. Diese sollen hauptsächlich zum Verständnis der Vorgänge bei der Nukleosynthese in Roten Riesen beitragen...
Es steht ausser Zweifel, das der Schutz der Privatsphäre von Internet-Nutzern gegenwärtig unzureichend ist. Die Chance sich im Netz relativ weiträumig und frei zu bewegen, steht die Möglichkeit gegenüber allerlei Informationen über Internet-Nutzer zu sammeln und auszuwerten. Dies ist natürlich auch im Intranet möglich. Im Rahmen dieser Diplomarbeit wurden die verschiedenen Möglichkeiten überprüft, die zur Veröffentlichung von Datenschutzmassnahmen angeboten werden. Zunächst ist der OECD Privacy Statement Generator, dessen Principles Grundlage bei der Formulierung von Lufthansa Principles waren, auf Lufthansatauglichkeit untersucht worden. Dabei hat sich ergeben, dass trotz der theoretischen Übereinstimmung der Principles der Lufthansa AG mit denen der OECD, der Gebrauch des Generators bei Lufthansa in dieser Form nicht möglich ist. Da anfänglich eine Anpassung des Generators an Lufthansabedürfnisse geplant war, sind im Rahmen dieser Diplomarbeit Änderungsvorschläge gemacht worden. Die Anpassung des Codes erfolgte nicht, da dieser nur für öffentliche Stellen und nicht für Privatunternehmen zugänglich ist. Mit P3P entwickelte das W3C eine Datenschutztechnik, die für Nutzer die Kontrolle über persönliche Daten automatisiert und damit den Schutz der Privatsphäre und die Akzeptanz der User verbessert. Nach der Einführung des P3P- und APPEL-Vokabulars, mit dem man einerseits Datenschutzmassnahmen und andererseits Datenschutzpräferenzen ausdrücken kann, sollte daher geprüft werden, ob dieses Vokabular ausreicht, um Lufthansa-spezifische Aussagen zu machen und in wieweit diese erweiterbar bzw. anpassbar sind. Die Untersuchung hat ergeben, dass das Vokabular bis zu einem gewissen Masse ausreicht und es ein Element gibt, das EXTENSION Element, mit dem eine Erweiterung des P3P Standardvokabulars möglich ist. Im Rahmen dieser Arbeit wurden solche auf Lufthansa abgestimmte Erweiterungen sowohl für eine P3P Policy als auch für eine entsprechende APPEL Präferenz formuliert. Die Lufthansa AG hat somit mit P3P die Möglichkeit, Ihre Datenschutzpraktiken für den Mitarbeiter transparenter zu gestalten, da sie auch über das Standardvokabular hinausgehende Aussagen formulieren kann. In der Diplomarbeit sind ausserdem die sich zur Zeit auf dem Markt befindlichen Tools, die bei der Erstellung einer maschinenlesbaren Datenschutzmassnahme, der sog. Privacy Policy benutzt werden können, untersucht worden. Der IBM P3P Policy Editor scheint für den Gebrauch bei Lufthansa denkbar, da die Handhabung des Generators einfach ist. Der Mitarbeiter, der die Policy für seine Abteilung erstellen soll, braucht sich nicht mit den Einzelheiten des P3P Vokabulars auseinander setzten. Mit diesem Editor kann zunächst ein Basisgerüst einer Policy erstellt werden. Die mit dem P3P Element EXTENSION formulierten Erweiterungen müssen jedoch selbsterstellt werden und können nachträglich in das Basisgerüst der Policy miteingebunden werden. Zusätzlich zu der maschinenlesbaren Form einer Policy erstellt der IBM Editor auch eine menschenlesbare HTML-Version der Policy. Dies ist sehr von Vorteil, da in einem Arbeitsgang zwei Policy-Versionen erstellt werden. Im Vergleich zu dem Formulierungsentwurf des OECD Generators ist die menschenlesbare Version des IBM Editors ausserdem wesentlich kürzer und dadurch auch übersichtlicher. Im Ganzen ist es daher sinnvoller, den IBM Editor zu benutzen, als den OECD Generator neu zu programmieren und dann mit Hilfe eines anderen Tools die P3P Policy zu erstellen. Zur Erstellung einer APPEL Präferenz ist zur Zeit nur ein Hilfsmittel auf dem Markt erhältlich. Der Grund hierfür ist sicherlich, dass sich APPEL noch zu keinem Standard entwickelt hat, sondern sich noch in einem Entwurfsstadium befindet. Der APPEL Editor von JRC ist ähnlich wie der P3P Policy Editor von IBM aufgebaut. Auch hier müssen Erweiterungen selbst formuliert und in dem vom Editor erstellten Basisgerüst einer Präferenz eingebunden werden. Nachdem die grundsätzliche Erweiterbarkeit von P3P in dieser Diplomarbeit festgestellt wurde, sind die sog. User Agents behandelt worden. Von Bedeutung war neben der Funktionsweise der einzelnen User Agents ihre Handhabung des EXTENSION Elementes. Da zu erwarten ist, dass nur wenige Nutzer die Voreinstellungen ihrer Software selbst verändern und sich mit der APPEL Spezifikation auseinander setzten, wird der Standardkonfiguration eines P3P User Agents eine große Bedeutung beigemessen. Bei allen vorgestellten User Agents gab es verschiedene Sicherheitsniveaux bzgl. Datenschutz aus denen der Nutzer auswählen konnte. Entsprechend des Niveaux wurde die Präferenz des Nutzers automatisch konfiguriert. Bei allen war es ausserdem möglich, selbsterstellte APPEL Formulierungen zu importieren. Bei dem Proxy von JRC ist es möglich, Settings mit einzubinden, die das EXTENSION Element beinhalten. AT&T erlaubt dies nicht und von Microsoft fehlt hierzu jegliche Angabe. Bzgl. der Lufthansa AG erscheint es sinnvoll, den Mitarbeitern einen eigenen User Agent anzubieten, der alle zusätzlich formulierten Aspekte aufgreift und mit dem der Mitarbeiter seine Präferenzen bzgl. des Intranets leicht ausdrücken kann. Der Aufwand, den Mitarbeitern das erweiterte Vokabular für die Formulierung einer Präferenz zur Verfügung zu stellen, setzt voraus, dass jeder Mitarbeiter sich mit der Syntax und Semantik von P3P und APPEL auskennt. Dies ist im Vergleich zur Programmierung eines eigenen User Agents, der den Mitarbeitern zur Verfügung gestellt wird, aufwendiger und wahrscheinlich auch nicht realisierbar. Grundsätzlich kann durch diese Massnahmen das Vertrauen der Mitarbeiter ins Intranet und damit die Nutzung dieses Mediums gesteigert werden. Die vermehrte Nutzung des Intranets auch für private Zwecke, wie zum Beispiel der Buchung von Reisen oder die Abfrage nach Flügen etc., würde für beide Seiten auch wirtschaftlichen Nutzen bringen. Für die Mitarbeiter selbst käme es z.B. zu einer Zeitersparnis, da sie jetzt zur Buchung ihrer Reisen nicht mehr in die Reisestelle müssen. Dies hätte natürlich auch wirtschaftliche Auswirkungen, da der Aufwand, um zur Reisestelle zu kommen, wegfällt. Aber auch die Lufthansa AG hätte durch die transparentere Gestaltung ihrer Datenschutzpraktiken wirtschaftlichen Nutzen. Die Mitarbeiter z.B. in der Reisestelle würden durch das neue Vertrauen ihrer Kollegen ins Intranet und damit einhergehend die selbstständige Online-Buchungsmöglichkeit entlastet werden. Es könnten mehr Kapazitäten für andere Aufgaben frei werden. Das Ausmass der Vorteile für Lufthansa und Ihrer Mitarbeiter, die sich aus der Veröffentlichung von Datenschutzmaßnahmen ergeben und damit ist auch das vermehrte Vertrauen der Mitarbeiter ins Intranet gemeint, ist zur Zeit noch nicht in vollem Umfang erfassbar, da sich viele Intranetprojekte der Lufthansa AG noch im Entwicklungsstadium befinden. Für die Zukunft ist jedoch auch festzustellen, dass datenschutzfreundliche Technologien allein nicht die Lösung zur Sicherstellung des Datenschutzes im Inter- als auch im Intranet sein können. Vielmehr müssen die aufkommenden technischen Maßnahmen durch nationale und internationale Regelungen unterstützt und ergänzt werden. Erst durch Festlegung internationaler Konventionen, die den Datenschutz in Zusammenhang mit grenzüberschreitenden Computernetzwerken und Diensten regeln, kann ein effektiver und unabhängiger Kontrollmechanismus sowie die Möglichkeit zu Sanktionen gewährleistet werden. Die Veröffentlichung von Datenschutzmassnahmen gewährleistet leider nicht ihre Einhaltung.
QCD-Summenregeln mit Massen
(1993)
Die Anfänge der Gittertheorie reichen in das letzte Jahrhundert, wobei die wohl bekanntesten Ergebnisse auf Gauß, Hermite und Minkowski zurückgehen. Die Arbeiten sind jedoch zumeist in der Schreibweise der quadratischen Formen verfaßt, erst in den letzten Jahrzehnten hat sich die von uns verwendete Gitterschreibweise durchgesetzt. Diese ist zum einen geometrisch anschaulicher, zum anderen wurden in den letzten Jahren für diese Schreibweise effiziente Algorithmen entwickelt, so daß Probleme der Gittertheorie mittels Computer gelöst werden können. Ein wichtiges Problem ist, in einem Gitter einen kürzesten nicht verschwindenden Vektor zu bestimmen. Den Grundstein für diese algorithmische Entwicklung legten A.K. Lenstra, H.W. Lenstra Jr. und L. Lovasz mit ihrer Arbeit. In dieser führten sie einen Reduktionsbegriff ein, der durch einen Polynomialzeitalgorithmus erreicht werden kann. Ein weiterer Reduktionsbegriff, die Blockreduktion, geht auf Schnorr zurück. Euchner hat im Rahmen seiner Diplomarbeit effiziente Algorithmen für diese beiden Reduktionsbegriffe auf Workstations implementiert und auch in Dimensionen > 100 erfolgreich getestet. Die Verbesserungen von Schnittechniken des in der Blockreduktion verwendeten Aufzählungsverfahrens und die Einführung einer geschnittenen Aufzählung über die gesamte Gitterbasis hat Hörner in seiner Diplomarbeit beschrieben. Ziel der folgenden Arbeit war es nun, diese bereits auf sequentiellen Computern implementierten Algorithmen zu modifizieren, um auf parallelen Rechnern, speziell Vektorrechnern, einen möglichst hohen Geschwindigkeitsgewinn zu erzielen. Wie in den seriellen Algorithmen werden die Basisvektoren stets in exakter Darstellung mitgeführt, so daß das Endergebnis einer Berechnung nicht durch Rundungsfehler verfälscht wird.
Das Konzept Sünde hat seine normative Geltung im Laufe des Zivilisationsprozesses zwar nicht verloren, seine Bedeutung ist jedoch vorwiegend in das religiöse Feld verlagert worden. Die Gegenwartsgesellschaft scheint sich dem Sündenbegriff nicht länger stellen zu müssen. Ein kultursoziologischer Blick offenbart jedoch, dass die Idee der Sünde – ins Metaphorische verwandelt – noch immer eine Hintergrundfolie für den Umgang mit sozialen Verfehlungen bildet. Insbesondere die innere und äußere Kontrolle sozialen Handelns belegt diesen Zusammenhang. Indes zeigt die wissenssoziologischer Perspektive, dass die Sünde in dieser Form als heimliches Herrschaftskonstrukt auftritt, das – wie schon Max Weber zeigte – einem stetigen Entzauberungs-, und damit einem Wandlungsprozess unterliegt. Dadurch wird die normative Geltung des Sündenkonzepts entkräftet – während gleichzeitig der Kerngedanke in der Bildersprache des alltäglichen Sprechens erhalten bleibt.
In dieser Arbeit wurde die Produktion von Omega und Anti-Omega Hyperonen in zentralen Pb+Pb-Kollisionen bei 40 A GeV am CERN SPS mit dem NA49 Experiment untersucht. Der in dieser Arbeit verwendete Datensatz wurde während einer 4 wöchigen Strahlzeit 1999 aufgenommen. Dabei wurden 579446 Zentrale (7.2 % des totalen Wirkungsquerschnitts) Ereignisse, bei zwei verschiedenen Polarit aten (std+ und std-), aufgezeichnet. Die Omega Produktion bei 40 A GeV wird mit Messungen bei anderen Energien verglichen, um damit die Energieabhangigkeit der Omega Produktion zu untersuchen. Das Experiment NA49 erlaubt genaue Messungen in einem weiten Akzeptanzbereich. Man misst die Zerfallstochter des Omegas und die Zerfallstochter des Omegas mit hochauflösenden TPCs. Mehrfach seltsame Teilchen (Theta, Omega) werden durch ihre Zerfallstopologie identifiziert. Es wurden verschieden Qualitatskriterien verwendet, um den kombinatorischen Untergrund zu reduzieren. NA49 hat nur eine endliche geometrische Akzeptanz und kann deshalb nicht den ganzen Phasenraum abdecken. Außerdem wurden verschiedene Qualitatskriterien verwendet, um ein akzeptables Signal zu Untergrund Verhaltnis zu erhalten. Da es wegen der Akzeptanz und der Qualitatskriterien zu Verlusten kommt, muss man darauf korrigieren. Dies macht man mittels einer Simulation, in der man Omega Hyperonen simuliert. Die Omega Hyperonen werden uber drei Rapiditatseinheiten um den Bereich zentraler Rapiditat und mit Transversalimpulsen von 0.9 bis 2.4 GeV/c gemessen. Es wurde der Temperaturparameter des Omega Hyperons bei 40 A GeV bestimmt. Im Rahmen der Fehler ist der Temperaturparameter der 40 A GeV dem der 158 A GeV gleich. Betrachtet man den Temperaturparameter der Omegas als Funktion der Schwerpunktenergie, gibt es einen Anstieg des Temperaturparameters von SPS- zu RHIC-Energien. Es wurden jeweils die Multiplizitaten bei mittlerer Rapiditat für Omega und Anti-Omega bestimmt. Die Multiplizität vom Omega betragt 0.068 +- 0.020 (stat.) +- 0.019 (sys.) und vom Anti-Omega 0.027 +- 0.008 (stat.) +- 0.007 (sys.). Die Multiplizitaten bei mittlerer Rapiditat steigen für Omega und Anti-Omega mit der Schwerpunktenergie von SPS- zu RHIC-Energien. Die Ergebnisse stimmen mit den Messungen der NA57 Kollaboration überein. Bei 40 A GeV wurde erstmals eine Rapiditatsverteilung gemessen. Die daraus resultierende totale Multiplizitat fur Omega + Anti-Omega betragt 0.20 +- 0.03 (stat.) +- 0.04 (sys.). Mit steigender Schwerpunktenergie steigt die totale Multiplizität und die Rapiditätsverteilung wird breiter. Um den systematischen Fehler zu bestimmen, wurde eine Stabilität-Analyse des mt-Spektrums und der Rapiditatsverteilung durchgefuhrt. Der systematische Fehler der mt-Spektren betragt 18 % und der totalen Multiplizitat 21 %. Schaut man sich die Anregungsfunktion der Omega und Anti-Omega als Funktion der Schwerpunktenergie an, erkennt man, dass es eine leichte Energieabhängigkeit beim Anti-Omega / Pi-Minus ....
Visualisierungssysteme nutzen die Mittel der modernen Computergraphik, um Informationen und Zusammenhänge zu veranschaulichen. Ein wichtiges Teilgebiet besteht dabei in der Veranschaulichung großer Informationsmengen zur Gewinnung eines Überblicks und Vorauswahl potentiell interessanter Teilmengen, die dann mit weiterführenden Methoden im Detail erforscht werden können. Das Relevanzkugelmodell wurde erstmals eingeführt, um als Bestandteil des LyberWorld-Projekts genau diese Vorselektion auf einer Menge von Textdokumenten zu leisten. Ziel dieser Arbeit ist es, dieses Modell in eine neue Form auf Basis des World Wide Web zu überführen und damit aus der engen Anbindung an das ursprüngliche System zu lösen und allgemeiner verwendbar zu machen. Zu diesem Zweck werden zunächst das Modell an sich und seine früheren Implementierungen genauer betrachtet, dann nach Auswahl geeigneter Hilfsmittel – VRML zur graphischen Modellierung und Java zur Handhabung der Funktionalität – Konzepte zur weiteren Ausgestaltung und zur Behebung existierender Schwächen des Ansatzes erarbeitet, und schließlich die resultierende Implementierung beschrieben und bewertet.
Das Assignment Problem ist ein bekanntes kombinatorisches Optimierungsproblem, bei dem es darum geht, in einem gewichteten bipartiten Graphen ein Matching mit minimalem Gewicht zu finden. In dieser Arbeit sind die Kantengewichte exponentialverteilt zu speziell gewählten Raten. Damit sind Erwartungswert und Varianz des minimalen Gewichts von besonderem Interesse. Zunächst wird ein Beweis der Parisi Formel und der Coppersmith-Sorkin Formel erläutert. Die Formeln beschreiben den Erwartungswert des minimalen Gewichts im Fall, dass die Raten alle dem Wert 1 entsprechen. Im zweiten Teil wird die Herleitung einer expliziten Formel zur Berechnung der Varianz des zufälligen minimalen Gewichts erklärt, wobei die Raten immer noch mit 1 übereinstimmen. Gleichzeitig wird eine Formel für die höheren Momente geliefert, aus der die Parisi Formel und Coppersmith-Sorkin Formel aus dem ersten Teil folgen und die sogar das bisherige Modell bezüglich der Parameter erweitert. Schließlich kann man das Ergebnis des zweiten Teils zur Beschreibung des asymptotischen Verhaltens der Varianz benutzen.
Wir werden uns in dieser Arbeit vorwiegend mit einem Modell befassen, das Y. Peres, C. Kenyon, W. Evans und L.J. Schulman 1998 in ihrem Artikel \Broadcasting on trees and the Ising-Modell" eingeführt haben.
In diesem Modell wird ein Signal, das die Werte +1 oder -1 annehmen kann, von der Wurzel eines Baumes aus entlang der Äste eines unendlichgroßen Baumes übertragen. Die Kanten des Baumes agieren dabei als Übertragungskanäle zwischen den Knoten. Jede Kante kann das Signal korrekt übertragen oder es flippen, das heißt, das Vorzeichen des Signals umkehren.
Das Übertragungsverhalten der Kanten ist zufällig. Mit einer festen Wahrscheinlichkeit ϵ, mit 0 < ϵ <= 1/2 , verfälscht eine Kante das Signal. Dies geschieht an allen Kanten unabhängig mit der gleichen Wahrscheinlichkeit. Es stellt sich nun die Frage, wie groß diese Fehlerwahrscheinlichkeit höchstens sein darf, damit das, was in der Krone des Baumes ankommt, noch etwas zu tun hat mit dem, was in der Wurzel eingespeist wird. Mit anderen Worte: Sind die Signale auf Knoten, die einen Abstand >= n von der Wurzel haben, für n -> ∞ asymptotisch unabhängig vom Signal in der Wurzel? Eine Möglichkeit, den Grad der Abhängigkeit zu messen, ist die sogenannte Information, der Kullback-Leibler-Abstand von gemeinsamer Verteilung zur Produkt-Verteilung, die in Definition 16 eingeführt wird.
Wir werden sehen, daß es eine kritische Schwelle ϵc;I für Informationsübertragung gibt. Ist die Fehlerwahrscheinlichkeit größer als ϵc;I , so ist die Information, die zwischen Wurzel und Krone übertragen wird, 0. Ist die Fehlerwahrscheinlichkeit kleiner als ϵc;I , so wird Information übertragen. Dieser kritische Wert ϵc;I hängt nur von der Branching-Number, einer Art mittleren Verzweigungszahl, des Baumes (vgl. Definition 1) ab.
Wir werden sehen, daß das Broadcasting-Modell eine elegante Formulierung eines wohlbekannten Modells, des Ising-Modells, mit freien Randbedingungen, ist.
Im Ising-Modell hat jeder Knoten des Baumes einen "magnetischen" Spin, der entweder +1 oder -1 sein kann. Spins direkt benachbarter Knoten beeinflussen sich, in dem sie versuchen, den gleichen Wert anzunehmen. Diesem Effekt wirkt ein thermischer Einfluß entgegen, der mittels eines als Temperatur bezeichneten Parameters modelliert wird.
Die klassische Frage im Ising-Modell ist, ob Phasenübergang stattfindet. Wir wollen Phasenübergang als das Phänomen verstehen, daß die Wurzel des Baumes die Vorgabe von Randbedingungen auf der Krone des Baumes spürt. Ist dies der Fall, so sagen wir, daß Phasenübergang stattfindet. Auch dies ist eine
Form der gegenseitigen Beeinflussung zwischen Wurzel und Krone des Baumes. Russel Lyons hat 1989 in seinem Artikel \The Ising-Model on trees and treelike Graphs" das Ising-Modell auf Bäumen untersucht und gezeigt, daß es eine kritische Temperatur tc für Phasenübergang gibt. Ist die Temperatur höher als tc, so spürt die Wurzel nichts von den Randbedingungen der Krone; ist die Temperatur geringer als tc, so haben die Randbedingungen Einfluß auf die Wurzel. Auch hier hängt die kritische Temperatur nur von der Branching-Number des Baumes ab.
In der Broadcasting-Formulierung des Modells ist der Fluß von Information ein naheliegendes Werkzeug, um die Beeinflussung von Wurzel und Krone zu messen, in der Ising-Formulierung ist die Existenz von Phasenübergang ein ebenso naheliegendes Werkzeug, ebendiesen Einfluß zu messen.
Wir werden die beiden Arten der Beeinflussung miteinander vergleichen und können zeigen, daß für die Übertragung von Information stets eine stärkere Interaktion zwischen den Knoten notwendig ist, als für den Einfluß der Randbedingungen aus der Krone.
Als letztes Phänomen werden wir untersuchen, ob es einen Pfad im Baum gibt, der in der Wurzel startend nur Knoten gleichen Spins besucht und die unendlich weit entfernte Krone erreicht. Wir bezeichnen dieses Phänomen als Spinperkolation.
Wir werden die Berechnung der kritischen Interaktion für Spinperkolation in einem Bernoulli-Feld auf den Kanten rekapitulieren und dann zeigen, daß die Existenz eines Perkolationspfades nur von der Interaktionsstärke des Modells und nicht von etwaigen Randbedingungen abhängt. Dabei kombinieren wir Ergebnisse aus zwei Arbeiten von Lyons und die Erkenntnis, daß Broadcasting- Modell und freies Ising-Modell identisch sind. Wir erhalten so einen neuen, einfachen Beweis über die kritische Interaktion für Spinperkolation in der Plus-Phase des Ising-Modells, die Lyons bereits in [7] berechnet hat.