Refine
Year of publication
Document Type
- Diploma Thesis (114) (remove)
Language
- German (114) (remove)
Has Fulltext
- yes (114)
Is part of the Bibliography
- no (114) (remove)
Keywords
- Agentieller Realismus (1)
- Akteur-Netzwerk-Theorie (1)
- Algebra (1)
- Algebraische Gleichung (1)
- Analyse von Algorithmen (1)
- Atom (1)
- BMRT (1)
- BRDF (1)
- BTF (1)
- Barad, Karen (1)
Institute
- Informatik (46)
- Physik (30)
- Biowissenschaften (10)
- Geowissenschaften (8)
- Mathematik (7)
- Gesellschaftswissenschaften (3)
- Biochemie und Chemie (2)
- Erziehungswissenschaften (2)
- Psychologie (2)
- Wirtschaftswissenschaften (2)
Diese Diplomarbeit behandelt eine Fragestellung aus dem Gebiet der Fuchsschen Gruppen. Das Problem, das hier geklärt werden soll, entspringt einer im Jahre 2005 erschienenen Arbeit über Konjugatoren Fuchsscher Gruppen und quasiplatonische Riemannsche Flächen von Jürgen Wolfart und Ernesto Girondo [GW05]. Es ist dort ein alternativer geometrischer Weg gewählt worden, um es zu umgehen, und es soll nun hier mit den bereits 1970 bereitgestellten Methoden zur Fragestellung der Existenz von Untergruppen Fuchsscher Gruppen von David Singerman [SIN70] gelöst werden. Betrachtet man eine Dreiecksgruppe $Delta_{1}$ als Untergruppe einer Dreiecksgruppe $Delta_{2}$, so kann es vorkommen, dass diese Inklusion eine Verfeinerung durch eine dazwischenliegende Dreiecksgruppe $Delta$ gestattet. In den Fällen, in denen zu einer gegebenen Dreiecksgruppe $Delta_{2}$ voneinander verschiedene Untergruppen gleicher Signatur $Delta_{1},Delta_{1}Apostroph,...$ existieren, ist es nicht a priori klar, dass es eine dazwischenliegende Dreiecksgruppe $Delta,DeltaApostroph,...$ gleicher Signatur zu jeder dieser verschiedenen Untergruppen gibt. Das Ziel dieser Arbeit ist es nun, dies zu klären, d.h. zu zeigen, dass es für jedes Paar Dreiecksgruppen $Delta_{1}subseteqDelta_{2},Delta_{1}ApostrophsubseteqDelta_{2},...$ eine dazwischenliegende Dreiecksgruppe $Delta,DeltaApostroph,...$ gibt. Im ersten Teil dieser Arbeit wird eine grobe Einleitung in die Theorie der Diskontinuierlichen Gruppen gegeben, die sehr stark auf Fuchssche Gruppen abzielt und mit deren Verbindung zu Riemannschen Flächen abschließt. Sie orientiert sich sehr stark an einem Standardwerk über Diskontinuierliche Gruppen von Joseph Lehner [LEH64]. Im zweiten Teil dieser Arbeit widmen wir uns ganz den Untergruppen Fuchsscher Gruppen und dem von David Singerman [SIN70] bereitgestellten Apparat, der eine notwendige und hinreichende Bedingung hierfür aufzeigt. Wie David Singerman auch zeigt, lassen sich diese Methoden für Normalteiler und Dreiecksgruppen spezialisieren. Wir werden uns dem auch annehmen. Abschließend erarbeiten wir dann eine ausführliche Methode und somit auch einen Beweis zur Erlangung der kompletten Liste von Inklusionen Fuchsscher Dreiecksgruppen, wie sie sich in einer weiteren Arbeit David Singermans befindet [SIN72]. Dies geschieht mit Hilfe zweier Maple-Programme deren Quellcode und Ausgabe sich im Anhang bzw. vierten Teil dieser Arbeit zur Einsicht bendet. Im dritten Teil dieser Arbeit wird schließlich die oben erläuterte Fragestellung geklärt werden. Sie wird zunächst anhand vieler Beispiele und Erläuterungen verdeutlicht, und im Anschluss dessen eine mögliche Verallgemeinerung auf Fuchssche Gruppen diskutiert.
Julia Hansen hat zwischen März und Dezember 2006 Untersuchungen zu Funktion und Struktur der Okklusalflächen in der postcaninen Zahnreihe von Viverriden durchgeführt. Unter verschiedenen Ernährungsregimen bilden Höcker und Täler auf Zähnen, die sich im Gebiss gegenüber stehen, eine Funktionseinheit, mit der Schleichkatzen sowohl in der Lage sind, Früchte zu zerquetschen, als auch den Panzer von Insekten aufzuknacken. In ihrer Studie ist es Frau Hansen gelungen, konstruktive Unterschiede zwischen beiden Nutzungsweisen zu identifizieren. Diese Unterschiede hat sie an verschiedenen fossilen Einzelzähnen der Sammlung Koenigswald überprüft.
Die vorliegende Arbeit umfasst die Rekonstruktion der Körpermasse pleistozäner Cerviden in Java. Zunächst wird ein Rezentmodell erstellt, das den Zusammenhang zwischen Körpermasse und dem jeweiligen Messparameter aufzeigt. Die daraus resultierenden Regressionsgleichungen werden für die Rekonstruktion verwendet. Das fossile dentale und postcraniale Material wird vermessen und die Körpermasse für jedes einzelne Stück rekonstruiert. Die absoluten Werte werden in Körpermassenklassen eingeteilt, um einen Wert unabhängig vom physiologischen Zustand zu erhalten. Die Körpermassen werden, soweit möglich, getrennt nach Gattungen rekonstruiert. Ein Vergleich zeigt, dass es deutliche Unterschiede in der Körpermasse der Gattungen Axis und Muntiacus im Vergleich zu Cervus gibt. Bei der Einteilung in Klassen fällt auf, dass die Klassen 3a (10 kg bis 20 kg) und 3b (20 kg bis 50 kg) ausschließlich von Axis und zu einem kleinen Teil von Muntiacus besetzt werden. Die Klassen 4a und 4b ausschließlich von Cervus. Die einzige von Axis und Cervus besetzte Klasse ist 3c (50 kg bis 100 kg). Anhand dieser aus den Fossilien der Dubois Sammlung gewonnenen Erkenntnisse können nun die Fossilien der von Koenigswald Sammlung beurteilt werden, da diese nicht auf Gattungsniveau bestimmt sind. In beiden Sammlungen liegt der höchste Prozentsatz in der Klasse 3b. Daraus kann man schließen, dass sehr viele Tiere der Gattung Axis vorhanden sind. Die Gattung Cervus hingegen ist nur zu einem recht geringen Prozentsatz vertreten. Diese Verteilung spiegelt sich auch in der Untersuchung der Fundstellen wider. An nur drei der acht untersuchten Fundstellen wurden Tiere der Gattung Cervus gefunden. Ein Vergleich der Körpermassen ergibt keinen signifikanten Unterschied zwischen diesen. Innerhalb der Axis-Hirsche kann man einen Körpermassenunterschied erkennen, der jedoch nicht mit der geographischen Lage der Fundstellen begründet werden kann. Die Untersuchung der Fundstellen aufgrund ihrer Chronologie ergibt keinen signifikanten Unterschied zwischen den Faunenleveln Trinil H.K. und Kedung Brubus. Jedoch ist innerhalb der Faunenlevel eine deutliche Variationsbreite der Körpermasse zu erkennen, welche auf das an den einzelnen Fundstellen herrschende Habitat zurückgeführt werden kann. Die Zuordnung der bisher nicht datierten Fundstellen in die Faunenlevel ist alleine aufgrund der rekonstruierten Körpermassen nicht möglich, jedoch können erste Aussagen über das umgebende Habitat getroffen werden.
Die vorliegende Arbeit umfasst die Rekonstruktion der Körpermasse pleistozäner Rhinocerotidae in Europa und Südost-Asien , hier speziell der Insel Java. Methodisch wird dieses Ziel durch lineare Regressionen nach Janis (1990) verfolgt. Zunächst wird ein Rezentmodell erstellt, das es ermöglicht Körpermasse mit verschiedenen Zahnparametern in Zusammenhang zu bringen. Die aus dem Rezentmodell resultierenden Regressionsgleichungen für jeden Zahn werden dann für die Rekonstruktion fossiler Körpermassen verwendet. Das fossile Zahnmaterial wurde vermessen und die Körpermassen für alle Zahnparameter errechnet. Um einen Vergleich mit veröffentlichten Werten zu ermöglichen, wurde die Körpermasse gleichfalls nach Legendre (1986) ermittelt, welcher eine Formel zur Körpermassenrekonstruktion entwickelte, die heute allgemein Verwendung findet. Um die oftmals sehr großen Schwankungen in der Körpermasse, verursacht durch Ernährungs- und Gesundheitszustand eines Tieres abzufedern, sind die absoluten Werte in Körpermassenklassen eingeteilt. Die ermittelten Körpermassen wurden dann in verschiedenen Zusammenhängen betrachtet und, soweit möglich , Aussagen über Gründe für Veranderungen oder Unterschiede zwischen Messstrecken, Zeiträumen, Habitaten oder auch Spezies genannt.
Die vorliegende Studie dient als Basis einer neuen, zuverlässigen Populationsschätzung von Wildschweinen (Sus scrofa). Nach dem hier entwickelten Feldprotokoll soll Wildschweinkot in ausreichenden Mengen, ausreichend guter Qualität und nicht-invasiv gewonnen werden. Die daraus gewonnen Gewebeproben dienen anschließend als DNS-Quelle für individuelle Erkennung und Markierung der beprobten Tiere. Durch Kenntnis des zum Kot gehörigen Tieres lässt sich ein Fang-Wiederfang-Verfahren simulieren. Ein Sammelverfahren, gegliedert in zwei identische Blöcke zu je sechs Tagen, kombiniert aus Strip-Transekt-Sampling (Buckland 2001) und Adaptive-Sampling (Thompson 1991) führte hierbei zum besten Resultat von 0,48 Funden je abgesuchten Kilometer und 1,04 Funden je aufgewendeter Stunde. Die Untersuchung fand auf einem bewaldeten etwa 40 km2 großen Areal im Pfälzerwald, südlich von Kaiserslautern - südliches Rheinland-Pfalz – statt. Im Rahmen der Untersuchung wurden 1605 km abgesucht und vier verschiedene Transektmodelle getestet. Insgesamt wurden hierbei 268 Kothaufen erfasst, die zusätzlich auf ihre physischen Eigenschaften (Kotgröße, Härtegrad, Konsistenz, Insektenbefall), Lage im Gelände (Verteilung auf Laub-, Nadel- und Mischwälder, sowie auf Geländeneigung, Exposition und Höhenlage) und räumliche Verteilung im Untersuchungsgebiet analysiert wurden. Die Untersuchungen fanden zu verschieden Jahreszeiten (Sommer, Herbst und Winter) statt. Als geeigneter Zeitraum für eine solche Kotsammlung hat sich der Winter herausgestellt, aufgrund der längeren Zersetzungszeit des Kots und der durch den Laubfall bedingten, besseren Sichtverhältnisse. Bei ausreichender Stichprobenzahl des Kots hat es sich zu dem ergeben, dass Rückschlüsse auf die Habitatnutzung des Schwarzwilds anhand der Kotverteilung machbar sind. Eine Interpretation der Populationsstruktur anhand der Kotgröße ist in Ansätzen erkennbar. Ein Vergleich mit den gängigen Bestandesschätzverfahren durch Jagdstrecken und Kotzählungen bestätigt die Tauglichkeit des Feldprotokolls zur Beschaffung von Wildschweinkotmengen, die der Population entsprechen. In zwei von vier Versuchsansätzen konnten entsprechende Kotmengen erfasst werden.
Das Bumpmapping-Verfahren, eine Methode zur realistischen Darstellung rauer Oberflächen, existiert schon seit 30 Jahren, aber erst durch aktuelle Entwicklungen der Hardware lässt es sich in Echtzeitumgebungen einsetzen. Die aktuellen Verfahren ermöglichen viele darüber hinausgehende Effekte, jedoch haben sie auch mit Problemen zu kämpfen. Das Ziel dieser Diplomarbeit ist die Weiterentwicklung der Verfahren zu betrachten. In dieser Arbeit werden die Grenzen der aktuellen Bumpmapping-Algorithmen aufgezeigt und nach neuen Wegen geforscht. Das erste Verfahren erzeugt durch ein Multipassrendern fraktale Landschaften im Shader. Die darin verwendeten Methoden lassen sich für einen weiteren Algorithmus nutzen, mit dem feine Unebenheiten der Oberfläche an jedem Pixel ausgewertet werden. So können anisotrope Materialien wie gebürstete Metalle oder Mikropartikellacke simuliert werden. Den Abschluss bilden zwei neue Verfahren für prozedurale Shader. Die zu imitierende Oberfläche wird im Modell nachgebildet und per Raytracing für jeden Oberflächenpixel ausgewertet. Durch diese Methode werden viele Probleme texturbasierter Verfahren komplett umgangen.
Im Rahmen dieser Diplomarbeit wurde ein Konzept zur Extraktion von semantischen Informationen aus Wiki-Systemen entwickelt. Ausgangspunkt ist die Tatsache, dass in einem Wiki-System eine Reihe von Informationen in strukturierten, semi-strukturierten oder unstrukturierten Texten vorliegen, deren Semantik nicht immer auf den ersten Blick ersichtlich ist. Daher umfasste die Analyse zum einen, welche Informationen explizit und welche implizit vorhanden sind und zum anderen, welche Beziehungen sich aus den gefundenen Informationen ableiten lassen. Dabei handelt es sich beispielsweise um Beziehungen zwischen verschiedenen Seiten oder um Beziehungen zwischen Wörtern. Hierfür wurde eine Schablone definiert, die jede Information, die extrahiert werden kann, im Detail beschreibt. Dies beinhaltet sowohl die Semantik und die Datenquelle, aus der die Informationen extrahiert werden können, als auch eine Anleitung zur Extraktion und die abschließende Darstellung als XML-Element. Da aber nicht jede Information und deren Semantik sicher ist, wird zwischen sicheren und unsicheren Informationen unterschieden. Die Analyse hat allerdings ergeben, dass es eine Reihe an Informationen gibt, denen nicht automatisch eine Semantik zugewiesen werden kann. Außerdem wurden die Gemeinsamkeiten und Unterschiede der verschiedenen Wiki-Systeme analysiert, die für die Entwicklung des Konzeptes notwendig waren. Im Konzept ist die Gesamtarchitektur zur Extraktion von semantischen Informationen enthalten. Zwei Hauptsystemkomponenten waren hierfür notwendig: Wrapper und Mediator. Aufgrund der Unterschiede der Wiki-Systeme, wie beispielsweise die verwendete Programmiersprache, Datenbank oder Datei und Wiki-Syntax, wurde eine Wrapper eingesetzt. Der Mediator dient hingegen als Vermittler zwischen der jeweiligen Anwendung und dem Wiki-System. Durch die prototypische Implementation des Konzeptes ist die Durchführbarkeit bewiesen, bestimmte semantische Informationen zu extrahieren und diese in eine für die Weiterverarbeitung geeignete Form zu bringen. Das heißt, bestimmte Informationen können automatisch oder halb-automatisch in eine semantische Beziehung zueinander gesetzt werden.
Binärsuchbäume sind eine wichtige Datenstruktur, die in der Informatik vielfach Anwendung finden. Ihre Konstruktion ist deterministisch, zur Analyse ihrer Eigenschaften wird aber eine rein zufällige Eingabe zugrundegelegt. Viele Größe, wie z.B. Tiefe, Höhe und Pfadlänge werden seit Jahren viel untersucht. Als besonders interessant hat sich die Analyse des Profils, der Anzahl Knoten einer bestimmten Tiefe herausgestellt. In dieser Arbeit wird ein funktionaler Grenzwertsatz für das am Erwartungswert normierte Profil vorgestellt. Dazu werden unterschiedliche Zugänge gewählt, die hauptsächlich auf dem sogenannten Profil-Polynom beruhen. Zunächst wird ein klassischer Zugang mit Hilfe von Martingalen besprochen. Der diskrete Prozess wird dazu auf kanonische Weise in ein zeitstetiges Modell (Yule-Prozess) eingebettet. Ergebnisse im kontinuierlichen Prozess werden dann durch Stoppen auf den diskreten übertragen. Zudem wird ein neuerer Zugang vorgestellt, der auf der Kontraktionsmethode in Banachräumen unter Verwendung der Zolotarev-Metrik beruht.
Raytracing und Szenengraphen
(2006)
Raytracing ist ein bekanntes Verfahren zur Erzeugung fotorealistischer Bilder. Globale Beleuchtungseffekte einer 3D-Szene werden durch das Raytracing-Verfahren physikalisch korrekt dargestellt. Erst aktuelle Forschungsarbeiten ermöglichen es, das sehr rechenintensive Verfahren bei interaktiven Bildraten in Echtzeit zu berechnen. Komplexe 3D-Szenen, wie sie beispielsweise in 3D-Spielen oder Simulationen vorkommen, können durch einen Szenengraphen modelliert und animiert werden. Damit die Rendering-Ergebnisse eines Szenengraphen näher an einem realen Bild liegen, ist es erforderlich das Raytracing-Verfahren in einen Szenengraphen einzugliedern. In dieser Arbeit werden die Möglichkeiten zur Integration eines Echtzeit-Raytracers in eine Szenengraph-API untersucht. Ziel dieser Diplomarbeit ist die Darstellung dynamischer Szenen bei interaktiven Bildraten unter Verwendung des Raytracing-Verfahrens auf einem herkömmlichen PC. Zunächst müssen bestehende Open Source Szenengraph-APIs und aktuelle Echtzeit-Raytracer auf ihre Eignung zur Integration hin überprüft werden. Bei der Verarbeitung dynamischer Szenen spielt die verwendete Beschleunigungsdatenstruktur des Raytracers eine entscheidende Rolle. Da eine komplette Neuerstellung der Datenstruktur in jedem Bild zuviel Zeit in Anspruch nimmt, ist eine schnelle und kostengünstige Aktualisierung erforderlich. Die in [LAM01] vorgestellte Lösung, eine Hüllkörperhierarchie (BVH) als Beschleunigungsdatenstruktur zu verwenden, fügt sich sehr gut in das Konzept eines Szenengraphen ein. Dadurch wird eine einfache Aktualisierung ermöglicht. Um das Ziel dieser Arbeit zu erreichen, ist es notwendig, die Parallelisierbarkeit des Raytracing-Verfahrens auszunutzen. Purcell zeigt in [Pur04], dass Grafikprozessoren (GPUs) neben ihrer eigentlichen Aufgabe auch für allgemeine, parallele Berechnungen wie das Raytracing verwendet werden können. Die in bisherigen Arbeiten über GPU-basiertes Raytracing entwickelten Systeme können dynamische Szenen nicht bei interaktiven Bildraten darstellen. Aus diesem Grund wird in dieser Diplomarbeit ein neues System konzipiert und implementiert, das den in [TS05] entwickelten Raytracer erweitert und in die Open Source Szenengraph-API OGRE 3D integriert. Das implementierte System ermöglicht die Darstellung statischer und dynamischer Szenen unter Verwendung einer Consumer-Grafikkarte bei interaktiven Bildraten. Durch seine Erweiterbarkeit bildet das System das Grundgerüst für ein Realtime-High-Quality-Rendering-System.
Ultrarelativistische Schwerionenkollisionen bieten die Möglichkeit stark wechselwirkende Materie unter hohe Energiedichten zu versetzen und auf diese Weise ihre Eigenschaften zu untersuchen. Werden in den Reaktionen ausreichend große Temperaturen und Baryondichten erreicht, so erwartet man einen Phasenübergang von der hadronischen zu der partonischen Phase, dem Quark Gluon-Plasma. Das QGP ist ein Materiezustand, in dem die Quarks nicht mehr wie in der gewöhnlichen Materie in Hadronen gebunden sind, sondern als quasi-freie Teilchen neben den Gluonen vorliegen. Eines der Hauptziele der Schwerionenphysik besteht darin, solch ein theoretisch vorhergesagtes QGP experimentell zu erzeugen und den damit verbundenen Phasenübergang zu untersuchen. Die Produktion von seltsamen Teilchen stellt dabei eine grundlegende Observable dar, durch die Rückschlüsse auf den Reaktionsverlauf einer Schwerionenkollision gezogen werden können. In dieser Arbeit wurde die Produktion der neutralen Kaonen in Pb+Pb Reaktionen bei verschiedenen Energien untersucht. Die neutralen Kaonen können über die schwach zerfallenden K0S gemessen werden und stellen gemeinsam mit den geladenen Kaonen die in einer Schwerionenkollision am häufgsten erzeugten seltsamen Teilchen dar. Die Messungen der Pb+Pb Reaktionen wurden mit Hilfe des NA49 Experiments am Europäischen Zentrum für Teilchenphysik, dem CERN, durchgeführt. Bei diesem Experiment handelt es sich um ein magnetisches Spektrometer, das sich durch seine große Akzeptanz für geladene Hadronen auszeichnet und den Anforderungen hoher Teilchenmultiplizitäten, die insbesondere in zentralen Pb+Pb Reaktionen bei der maximalen SPS-Strahlenergie von 158A GeV auftreten, genügt. Im Rahmen des NA49 Energie-Scan Programmes wurden Schwerionenkollisionen neben einer Strahlenergie von 158A GeV auch bei 20A, 30A, 40A und 80A GeV gemessen. Die Vielzahl an experimentellen Daten ermöglicht ein detailliertes Studium der Energieabhängigkeit der hadronischen Endzustandsverteilung hochrelativistischer Schwerionenkollisionen. Die in der vorliegenden Arbeit untersuchten neutralen Teilchen K0S können anhand ihrer charakteristischen V0-Zerfallstopologie, welche sich bei ihrem schwachen Zerfall in ein Pi+Pi- - Paar ergibt, identifiziert werden. Durch die gemessenen Zerfallsprodukte wurde in der Analyse die invariante Masse der V0-Teilchen in differentiellen Phasenraum-Bins rekonstruiert. Mittels geeigneter QualitÄatskriterien konnte dabei der Untergrund aus zufälligen Kombinationen von primären Spuren, falschen Kombinationen mit sekundären Spuren, sowie Lambda s und Antilambda s von der K0S-Analyse weitgehend unterdrückt werden. Um auf die dadurch verursachten Verluste wahrer K0S, genauso wie auf jene Verluste, die aufgrund der geometrischen Akzeptanz des Detektors und weiterer Ineffizienzen auftreten, korrigieren zu können, wurde das Embedding herangezogen. Mit Hilfe dieses Verfahrens konnten die Korrekturfaktoren für die verschiedenen Phasenraumbereiche ermittelt und auf die jeweiligen Rohsignale angewendet werden. Der systematische Fehler der korrigierten Teilchenspektren konnte durch eine Vielzahl systematischer Studien abgeschätzt werden. Dabei wurde ein grundlegender Fehler aufgedeckt, dessen Ursprung in der GSI Methode liegt. Da die GSI Methode bereits in der Datenrekonstruktion, auf der diese Analyse beruht, Verwendung findet und in Folge dessen eine Behebung dieses Fehlers im Rahmen dieser Diplomarbeit nicht möglich war, wurde für die Ermittlung der Endergebnisse stattdessen die Birmingham Methode verwendet. Es wurden die korrigierten transversalen Massenspektren sowie die Transversalimpuls-Spektren der K0S bei Midrapidity für die drei untersuchten Strahlenergien von 30A, 40A, und 158A GeV präsentiert. Des Weiteren wurden die Rapiditätsspektren für die verschiedenen Energien gezeigt, aus denen wiederum die entsprechende totale Multiplizität <K0S> ermittelt werden konnte. Deren Energieabhängigkeit sowie die des inversen Steigungsparameters T wurden diskutiert und mit den Ergebnissen der geladenen Kaonen verglichen. Die gemessenen K0S-Rapiditätsspektren und totalen Multiplizitäten lagen zwar bei allen untersuchten Energien systematisch niedriger als die entsprechend gemittelten der geladenen Kaonen, haben jedoch, genauso wie der inverse Steigungs- parameter T, eine qualitativ ähnliche Energieabhängigkeit aufgezeigt. Weiterhin wurde das K0 S-Rapiditätsspektrum für 158A GeV mit denen anderer K0S-Analysen verglichen. Dabei konnte eine ähnliche Abweichung wie im Vergleich zu den geladenen Kaonen festgestellt werden. Abschließend wurde noch die Energieabhängigkeit des Verhältnisses von Kaonen zu Pionen in dem Energiebereich von AGS bis hin zu RHIC untersucht. Dabei konnte eine ausgeprägte Struktur in der Energieabhängigkeit des <Ki>/Pi-Verhältnisses beobachtet werden, welche als ein Indiz für einen Phasenübergang zu einem Quark Gluon-Plasma angesehen werden kann.
Fraktale Planetengenerierung
(2006)
Wie die Diplomarbeit gezeigt hat, lassen sich zwar ganze Planeten ohne größere Verzerrungen mit Hilfe fraktaler Methoden modellieren. Allerdings stößt die Darstellungsqualität an ihre Grenzen, da sich gängige Level-of-Detail-Algorithmen, wie ROAM bzw. Röttger, nicht einfach an die durch das Surface-Refinement gegebenen Bedingungen anpassen. Insbesondere die Triangulierung durch gleichseitige Dreiecke hat sich als problematisch erwiesen. Ohne diese LOD-Techniken kann aber nur eine relativ geringe Auflösung berechnet werden. Der vorgestellte Level-of-Detail-Algorithmus stellt zwar keinen Ersatz für die obengenannten Verfahren dar. Er bietet aber eine sehr gute Grundlage, denn er schränkt einfach und dadurch sehr schnell den Bereich ein, in dem sich der Betrachter bzw. die virtuelle Kamera befindet. Dies ist vorallem auch deshalb wichtig, weil die bisher entwickelten LOD-Algorithmen nur mit vergleichsweise kleinen Flächen wirklich effizient funktionieren. Eine Kombination aus dem in der Diplomarbeit entwickelten Verfahren und einem ROAM/Röttger-ähnlichen Algorithmus würde deren jeweiligen Schwächen beheben. Die eigentliche Modellierung der Landschaft bzw. der Gebirgszüge lässt sich dagegen problemlos auch auf sphärische Körper übertragen, zumindest wenn man dafür den Plasma-Algorithmus verwendet.
Im Zuge der wachsenden Bedeutung von ELearning an Hochschulen beschäftigt sich diese Arbeit mit dem Einsatz von WebCT an der Johann Wolfgang Goethe Universität in Frankfurt am Main. In der vorliegenden Arbeit soll untersucht werden, inwieweit es nötig und möglich ist, WebCT hinsichtlich Benutzerfreundlichkeit, der Realisierung technischer Ideen und der pädagogischen Einsatzmöglichkeiten einzelner Tools zu optimieren. Aufgrund von Erfahrungen unsererseits, aus der Sicht als Kursteilnehmer mehrerer Lehrveranstaltungen mit Unterstützung von WebCT, im Sinne von Blended Learning und zu einem späteren Zeitpunkt als Tutoren in einem auf WebCT basierendem Seminars stellten wir fest, dass sich die Einbindung von WebCT als ELearning Plattform als aufwendig erwies. Dies könnte an mangelnden technischen Kenntnissen und Möglichkeiten liegen als auch an der nachlassenden Nutzung von Seiten der Studenten im Laufe des Semesters. Für uns stellte sich nun die Frage, wie WebCT optimiert werden kann, damit sich der didaktisch sinnvolle Einsatz in Lehrveranstaltungen erhöht. Die Diplomarbeit unterteilt sich in zwei Abschnitte; zum Ersten in die Analyse von WebCT, anhand der Kriterien und der Interviews und zum Zweiten in die Interviewauswertung und – interpretation einschließlich der technischen Optimierung.
Das Thema der vorliegenden Arbeit war die molekulargenetische Charakterisierung der Funktion der Glukosesensoren Snf3 und Rgt2 in der Hefe S. cerevisiae. Snf3 und Rgt2 gehören zur Familie der Hexosetransporter. Sie unterscheiden sich von ihnen jedoch in ihrer Funktion als Glukosesensoren wie auch durch ihre ungewöhnlich langen Cterminalen Domänen. Snf3 und Rgt2 sind integrale Membranproteine, die als Reaktion auf extrazelluläre Glukose Signale auslösen, die zur Expression bestimmter Hexosetransporter führt. Einige Komponenten, die an der Signaltranduktion beteiligt sind, wurden bereits identifiziert. Jedoch ist der genaue Mechanismus, der zur Expression der Hexostransporter führt, noch nicht vollständig aufgeklärt. Im ersten Teil dieser Arbeit wurden die Proteine Snf3, Rgt2, Mth1, Std1 und Rgt1 auf direkte Interaktionen untereinander getestet, um Einblicke in den molekularen Mechanismus der Signaltransduktion zu erhalten. Desweiteren sollte festgestellt werden, ob die Protein-Wechselwirkungen von der C-Quelle abhängig sind. Es konnte gezeigt werden, dass zwischen den Membranproteinen Rgt2 bzw. Snf3 und den löslichen Proteinen Mth1 bzw. Std1 Interaktionen in Abhängigkeit von Glukose stattfanden. Diese Ergebnisse unterstützen das von Moriya und Johnston aufgestellte, gegenwärtige Modell für eine glukoseinduzierte HXT Genexpression. Im zweiten Teil dieser Arbeit wurde geprüft, ob sich aus dem Glukosesensor Snf3 durch eine Aminosäuresubstitution ein bifunktionaler Sensor für Glukose und Galaktose erzeugen läßt. Dazu wurden die für den Galaktosetransport verantwortlichen Aminosäuren in den homologen Positionen von Snf3 ausgetauscht. Die Bestimmungen der Regulation des Snf3-kontrollierten HXT7 Promotors ergaben, dass das mutierte Snf3 Protein, wie das Wildtyp-Snf3 Protein, eine normale Glukosesensorfunktion ausübt aber keine Galaktosesensorfunktion vorzeigt.
ALPHA ist die Architektur einer lokationssensitiven Puppe für hydropneumatische Animation. Es ist ein Animations-Eingabegerät. Die Puppe soll ein Objekt repräsentieren, welches animiert werden soll. Ihre Gliedmaßen, welche aus Knochen und Gelenken bestehen, sind beweglich. Sie wird an einen Computer angeschlossen und die gegenwärtige Stellung ihrer Gelenke kann mittels eines ebenfalls entwickelten Treibers von diesem Computer eingelesen werden. Des Weiteren wird erklärt was eine hydropneumatische Animation ist. Die Diplomarbeit weist die folgende Gliederung auf: • Motivation • Technische Grundlagen und State-Of-The-Art-Analyse • Anforderungsanalyse • Das eigene Konzept, die lokationssensitive Puppe (ALPHA) • Evaluation • Ausblick Die Motivation beschäftigt sich mit der Entwicklung der Filmanimation und einiger Errungenschaften in der Laufbahn der Animationstechnologischen Entwicklung. Die technischen Grundlagen beschränken sich auf die Funktionsweise von Messapparaturen, welche als Gelenkstellungssensoren fungieren können. Im Einzelnen sind das der optische Resolver, der Optoencoder und die Kombination von einem Drehpotentiometer und einem Analog/Digital-Wandler. Zur State-Of-The-Art-Analyse gehört die Erläuterung bereits entwickelter Stellungs- und Bewegungsmessender Technologien, wie das Stop-Motion-Verfahren, das Motion-Capturing, das Dinosaur-Input-Device und der Datenhandschuh. Eine Zusammenstellung der Defizite dieser Verfahren schließt dieses Kapitel ab. Die Analyse der Anforderungen an ein zu entwickelndes System ist im Kapitel Anforderungsanalyse zu finden. Zum eigenen Konzept gehört die gesamte Entwicklung einer lokationssensitiven Puppe. Die Puppe ist das Ebenbild des Skeletts eines zu animierendes Objekts. Sie besteht aus mehreren Gliedmaßen, welche an ihren Gelenken beweglich sind. Die Gelenkstellung wird von Potentiometern gemessen, dessen Signal ein A/D-Wandler empfängt. Die Umschaltung der einzelnen Messwerte erfolgt über Analog-Multiplexer. Die gesamte Steuerung der Bauteile und das Auslesen des A/D-Wandler werden durch einen Treiber über den Parallelport eines PCs gesteuert. Die Funktionsweise des Treibers und seine Implementierung werden ebenfalls in diesem Kapitel erläutert. Im Kapitel Evaluation befindet sich eine Bewertung des Konzepts und der Erfüllung der Anforderungsanalyse. Schließlich zeigt der Ausblick die Möglichkeiten der Anwendungen der Puppe und einen Blick in zukünftige Technologien.
In dieser Arbeit wurde die grundsätzliche Funktionsweise und die Eigenschaften von photokonduktiven CW-Thz-Emittern dargestellt. In diesem Rahmen wurde der Prozess des Photomischens und die Funktionsweise und Eigenschaften von Antennen auf Halbleitersubstraten untersucht. Um das erwartete frequenzabhängige Emissionsverhalten zu überprüfen wurde ein Messplatz zur Durchführung von Vergleichsmessungen diverser Emitter aufgebaut. Desweiteren wurde ein Fourier-Transform-Interferometer zur frequenzaufgelösten Detektion im THz-Bereich entwickelt. Zur Charakterisierung der Emitter wurde die emittierte Leistung in Abhängigkeit der Frequenz gemessen. Als abstrahlende Strukturen wurden Dipol- und Patch-Antennen verwendet. Dabei wurde gezeigt, daß eine Einschränkung der Bandbreite eine Verstärkung der Emission in dem verbleibenden Frequenzbereich ergibt. Dies wird bei Dipolantennen durch eine Filterstruktur oder allgemein durch Verwendung einer stark resonanten Antennenstruktur wie der Patchantenne erreicht. Es wurde gezeigt, daß die Einbeziehung der zu höheren Frequenzen abfallenden Leistung des Photomischers notwendig für eine Beschreibung der Resonanzkurve ist. Dadurch verschiebt sich das Maximum der Abstrahlung und liegt im Falle des Dipols nicht mehr bei der Anregung nah der Wellenlänge die gleich der Dipollänge ist. Allerdings wurde auch gezeigt, daß dies nicht für eine Beschreibung der Resonanzkurve ausreicht, und daß zur korrekten Modellierung die Übertragung der Leistung von Photomischer auf die Antenne eingefügt werden muß. Diese ist stark von dem komplexen Widerstand des Photoschalters abhängig. Die Resonanzcharakteristik von Patch-Antennen konnte durch die Berechnung der TMModen eines dreidimensionalen mit einem Dielektrikum gefüllten Resonators erklärt werden. Dieser besitzt aber so viele mögliche Moden, daß schon kleine geometrische Veränderungen die Resonanzfrequenz verändern können. Somit ist die Berechnung der Resonanzfrequenz sehr schwierig, und die praktische Einsetzbarkeit der gezeigten Patch-Antennen gering. Allerdings ist bei Patchantennen anders als bei Dipolen die Quelle der Emission, in diesem Fall der Resonator aus Polyamid, unabhängig vom Substrat auf dem sich die Antenne befindet. Dies macht ein Aufbringen auf ein für die Emission optimales Substrat oder einen Spiegel möglich. Die berechnete Resonanzfrequenz der Filterstruktur in der Zuleitung ist auch die tatsächliche Resonanzfrequenz des Dipols. Hier ist eine Vorhersage und somit ein funktionierendes Design relativ leicht zu erreichen. Allerdings wurde die durch die Filterstruktur in der Zuleitung gewählte Resonanzfrequenz fälschlicherweise für eine Anregung mit der vollen Wellenlänge gewählt und liegt wie die vergleichende Messung mit identischem Dipol ohne Filterstruktur zeigt, nicht im Emissionsmaximum des Emitters. Für zukünftige Designs muß eine detaillierte Berechnung oder eine Messung des Emissionsmaximums des Dipols ohne Verwendung eines Filters vorangehen, um die Resonanzfrequenz des Filters auf dieses Maximum zu legen. Um eine bestimmte Frequenz zu erreichen muß also erst der Dipol ohne Filter so gewählt werden, daß dessen Emissionsmaximum bereits bei der gewünschten Frequenz liegt, um dann die Emission mit Hilfe eines Filters zu verstärken. Ebenfalls muß in der Zukunft um die Anwendbarkeit zu erhöhen, die bolometrische Detektion durch photokonduktive oder elektrooptische Detektion ersetzt werden.
Simulation von Prüfungsordnungen und Studiengängen mit Hilfe von Constraint-logischer Programmierung
(2006)
In dieser Arbeit wurde versucht die Prüfungsordnung des Bachelorstudiengangs Informatik mit Hilfe der Constraint-logischen Programmiersprache - genauer der Programmiersprache ECLiPSe e zu simulieren und diese auf logische Fehler zu überprüfen. Hierfür wurden die beiden deklarativen Programmierparadigmen, die logische Programmierung und die Constraint-Programmierung, getrennt erläutert, da sie unterschiedliche Techniken bei der Problembehandlung einsetzen. Zunächst wurde als Grundlage die Prädikatenlogik (Kapitel 2), erarbeitet und ausführlich dargestellt. Anschließend wurde die logische Programmierung mit der, auf Prädikatenlogik basierenden, Programmiersprache Prolog erläutert (Kapitel 3). Nach der Erläuterung des logischen Teils wurde die Constraint-Programmierung (Kapitel 4) eingehend erläutert. Damit wurde eine Basis geschaffen, um die Constraint-logische Programmierung zu erläutern. Die Constraint-logische Programmierung (Kapitel 5) wurde als eine Erweiterung der logischen Programmierung um Constraints und deren Behandlung dargestellt. Dabei wurde zunächst ein allgemeiner Ansatz der Constraint-logischen Programmierung (CLP-Paradigma) erläutert. Mit der Einführung der Programmiersprache ECLiPSe, wurden alle Werkzeuge behandelt, die für die Simulation benötigt wurden. Schließlich wurde genauer auf die Modellierung des Problems und seine Implementierung in der Sprache ECLiPSe eingegangen (Kapitel 6). Grundidee der Simulation war, die Regeln der Prüfungsordnung als Constraints zu formulieren, so dass sie formal bearbeitet werden konnten. Hier wurden zwei Arten von Tests durchgeführt: • Constraint-Erfüllbarkeitsproblem: Mit dem ersten Test wurde nach eine Lösung gesucht, in der alle Constraints erfüllt sind. • Constraint-Optimierungsproblem: Hier wurde nach einer optimalen Lösung gesucht unter mehreren Kandidaten, in der alle Constraints erfüllt sind. Fazit: Die Constraint-logische Programmierung ist ein viel versprechendes Gebiet, da sie ein Mittel zur Behandlung kombinatorischer Probleme darstellt. Solche Probleme treten in vielen verschiedenen Berufsfeldern auf und lassen sich sonst nur mit großem Aufwand bewältigen. Beim Auftreten solcher Probleme kann schnell ein konzeptuelles Modell erstellt werden, das sehr einfach in ein ausführbares Programm (Design-Modell) umgewandelt wird. Programm-Modifikation ist erheblich leichter als in den prozeduralen Programmiersprachen.
Wir betrachten in dieser Diplomarbeit die Sicherheit des ringbasierten Public Key Kryptosystems NTRU, das 1996 von J. Hoffstein, J. Pipher und J.H. Silverman vorgeschlagen wurde. Dieses Kryptosystem bietet schnelle Kodierung und Dekodierung in Laufzeit O(n exp 2) bei kleinem Sicherheitsparameter n. Die Sicherheit des Systems beruht auf einem Polynomfaktorisierungsproblem (PFP)im Polynomring Zq[X]/(X exp n -1). Das PFP wurde von Coppersmith und Shamir auf ein Kürzestes Vektor Problem im Gitter Lcs reduziert. Die neuen Ergebnisse dieser Arbeit bauen auf dem Gitter Lcs auf. Wir betrachten die Nachteile von Lcs und konstruieren verbesserte Gitterbasen zum Angriff auf das NTRU-Kryptosystem. Dabei nutzen wir Strukturen des Polynomrings Zq[X]/(X exp n -1) und der geheimen Schlüssel aus. Durch die neuen Gitterbasen wird der Quotient aus der Länge des zweitkürzesten und der Länge des kürzesten Gittervektors vergrößert. Da wir Approximationsalgorithmen zum Finden eines kürzesten Vektors verwenden, beschleunigt dies die Attacken. Wir präsentieren verschiedene Methoden, wie man die Dimension der Gitterbasen verkleinern kann. Durch die verbesserten Gitterattacken erhalten wir eine Cryptanalyse des NTRU-Systems in der vorgeschlagenen mittleren Sicherheitsstufe. Beträgt die Zeit zum Brechen eines Public-Keys unter Verwendung der Coppersmith/Shamir-Basis 1 Monat, so verringert sich die Laufzeit durch einen kombinierten Einsatz der neuen Gitterbasen auf ca. 5 Stunden auf einem Rechner und bei Parallelisierung auf ca. 1:20 Stunde auf 4 Rechnern. Wir erwarten, daß die neuen Methoden NTRU in hoher Sicherheitsstufe n = 167 brechen, obwohl für dieses n bisher nur "schwache" Schlüssel gebrochen wurden. Trotz signifikanter Verbesserungen deuten die experimentellen Ergebnisse auf ein exponentielles Laufzeitverhalten bei steigendem Sicherheitsparameter n hin. Der Laufzeitexponent kann allerdings gesenkt werden, so daß man n größer wählen muß, um Sicherheit gegenüber den neuen Attacken zu erzielen. Auch wenn das NTRU-Kryptosystem nicht vollständig gebrochen wird, verliert es seinen größten Vorteil gegenüber anderen Public Key Kryptosystemen: Die effiziente Kodierung und Dekodierung bei kleinem Sicherheitsparameter n.
Korrektur der durch ein inhomogenes Magnetfeld verursachten Verzerrungen in einer Spurendriftkammer
(1995)
Das Ziel dieser Arbeit war die Untersuchung der Photodoppelionisation des H2-Moleküls mit zirkular polarisiertem Licht. Dabei sollte nach Anzeichen von Doppelspaltinterferenzen in den Photoelektronenwinkelverteilungen gesucht werden. Die Erscheinungen im klassischen Doppelspaltexperiment basieren auf der Interferenz der nach dem Huygenschen Prinzip gebeugten ebenen Wellen. In Analogie dazu stellen nun im molekularen System die beiden Kerne die Emissionszentren der Elektronenwelle dar. Die Interferenzerscheinung wird dabei durch die von beiden Kernen gleichzeitig emittierte Elekltronenwelle hervorgerufen. Die Photodoppelionisation des H2-Moleküls wurde mit einer Photonenenergie von 240 eV durchgeführt, um eine Wellenlänge der ionisierten Elektronen in der Größenordnung des Gleichgewichtsabstands der Kerne von 1.4 a.u. zu erreichen. Zur Erzeugung des Interferenzeffektes hätte eigentlich die Einfachionisation des Moleküls ausgereicht, da die Welle eines Elektrons gleichzeitig von beiden Protonen ausläuft. Es wurde trotzdem die Doppelionisation durchgeführt, da so die Ionen in Koinzidenz gemessen werden können und die Impulserhaltung in der Coulomb-Explosion des Moleküls zur Identifikation von H2-Ionisationsereignissen verwendet werden kann. Weitere Vorteile sind die Beobachtung der Elektronenkorrelation für verschiedene Energieaufteilungen der Elektronen, sowie die Möglichkeit der Bestimmung des internuklearen Abstandes aus der kinetischen Energie der Ionen (KER). Zunächst wurde die Winkelverteilung der Photoelektronen für eine extrem asymmetrische Energieaufteilung untersucht. Die Lage und Größe der Interferenzmaxima und -minima in der Elektronenwinkelverteilung wurde dann mit der im klassischen Doppelspaltexperiment auftretenden Interferenzstruktur verglichen. Es konnte gezeigt werden, dass das Interferenzminimum sich wie im Falle des klassischen Doppelspaltes unter einem Winkel von ca. 52° relativ zur Spalt- bzw. Molekülachse befindet. Die Größenverhältnisse von Haupt- zu Nebenmaximum wichen dagegen von den klassischen Erwartungen ab. Während beim Doppelspalt das Hauptmaximum bei 90° relativ zur Spaltachse liegt, lag in diesem Experiment das ausgeprägteste Maximum unter 0°, d.h. entlang der Molekülachse. Die experimentellen Ergebnisse wurden daraufhin mit einigen Theorien verglichen. Die Theorie von Cherepkov und Semenov, welche die Einfachionisation des Wasserstoffmoleküls für zirkular polarisiertes Licht behandelt, berechnet die Elektronenwinkelverteilung durch die Hinzunahme der Streuung der Photo-elektronenwelle am benachbarten Proton. Die Berücksichtigung dieses Effektes führt zu einer deutlich besseren Beschreibung der Daten. Da es sich in diesem Experiment um die Doppelionisation des Moleküls handelt, auch für Fälle bei denen einem Elektron nahezu keine kinetische Energie zukommt, muss die Wechselwirkung zwischen allen Fragmenten, insbesondere zwischen den Elektronen berücksichtigt werden. Die 5C-Theorie [Wal00] berücksichtigt die Coulomb-Wechselwirkung zwischen allen Fragmenten des Wasserstoffmoleküls. Die Wechselwirkung zwischen den Ionen kann allerdings im Rahmen der Born-Oppenheimer-Näherung vernachlässigt werden. Der 5C-Rechnung zeigt, wie die experimentellen Daten, verstärkte Maxima entlang der Molekülachse, jedoch ist hier die Änderung des Größenverhältnisses zu extrem im Vergleich zu den experimentellen Daten. Um die experimentell gefundene Elektronenwinkel-verteilung zu rekonstruieren, dürfen dennoch anscheinend weder Streueffekte noch die Coulomb-Wechselwirkung der Fragmente vernachlässigt werden. Im weiteren Verlauf der Arbeit wurde die Energieaufteilung der Elektronen variiert. Die Interferenzstruktur wurde für verschiedene Energien des langsamen Elektrons untersucht. Je höher die Energie des langsamen Elektrons war, umso schwächer wurde das Maximum 0. Ordnung (senkrecht zur Molekülachse) der Interferenzen des schnellen Elektrons. Die unveränderte Größe des Maximums 1. Ordnung (entlang der Molekülachse) wurde auf die Überlagerung der Streueffekte sowie der Coulomb-Wechselwirkung mit der Interferenzstruktur zurückgeführt. Über die Energie der Protonen wurde im Experiment zudem der internukleare Abstand zum Zeitpunkt der Photoabsorbtion bestimmt. Es zeigt sich eine deutliche Abhängigkeit des Interferenzmusters vom internuklearen Abstand. Die experimentell gefundene Abhängigkeit entspricht dabei der des klassischen Doppelspalts. Schließlich wurde die Elektronwinkelverteilung für eine feste Emissionsrichtung des langsamen Elektrons untersucht. In den experimentellen Daten konnte deutlich die Unterdrückung der Emissionswahrscheinlichkeit des schnellen Elektrons entlang der Emissionsrichtung des langsamen Elektrons beobachtet werden. Diese Elektronenwinkelverteilung konnte durch eine Faltung der reinen Interferenz – erzeugt durch die Integration über den Zwischenwinkel der Elektronen - mit der reinen Elektronenwechselwirkung - erzeugt durch die Integration über die Stellung der Molekülachse - rekonstruiert werden. Die Verteilung nach der Integration über die Molekülachse ähnelte dabei der Struktur der Elektronenwinkelverteilung nach der Doppelionisation des Heliumatoms. Daraus lässt sich schlussfolgern, dass die gemessene Winkelverteilung der Photoelektronen des doppelionisierten Wasserstoffmoleküls aus einer Überlagerung der Coulomb-Wechselwirkung der Elektronen des heliumähnlichen Systems mit der Interferenzstruktur besteht. Das bedeutet, die Elektron-Elektron-Korrelation und die Doppelspaltinterferenz sind zwei separate Prozesse. Die Elektronen verlassen den Molekülverband wie im Heliumatom über den SO- bzw. den TS1-Prozess und das langsame Elektron führt nicht zur Dekohärenz.
Mit dem Dileptonenspektrometer HADES sollen Dielektronen aus Kern - Kern - Stößen in einem hadronischen Untergrund bei hohen Multiplizitäten untersucht werden. Die Ereignisrate von 106 pro Sekunde erfordert eine Auslese der Detektoren innerhalb von 10 mikrosek. Die erwarteten hohen Multiplizitäten führen zu einer hohen Granularität der Detektoren und damit auch der Ausleseelektronik. Durch die Verwendung mehrere Triggerstufen wird eine Aufteilung des Auslesesystems auf mehrere Stufen notwendig. Für die Auslese von ~ 26.000 Driftzellen in 24 Driftkammermodulen wurde ein an die Anforderungen des Detektorsystems angepaßtes Auslesekonzept entwickelt. Analoge Signalaufbereitung und Messung der Driftzeit werden direkt am Detektor auf zwei miteinander kombinierten Karten untergebracht. Die nötige Integrationsdichte im Digitalisierungsteil wird durch die Verwendung eines speziellen Zeitmeßverfahrens (TDC) erreicht, das auf Signallaufzeiten in Halbleiterschaltungen basiert. Im gleichen Chip befindet sich auch eine Datenübertragungseinheit, die in der Lage ist die Daten mit der erforderlichen Geschwindigkeit zu transferieren. Durch zwei weitere Module mit Speicher zum Puffern der Ereignisdaten wird den Anforderungen des Triggerkonzeptes Rechnung getragen. Dem verwendete Zeitmeßverfahren (Ringoszillator) ist eine Abhängigkeit der Zeitauflösung von Temperatur und Versorgungsspannung inherent. Ausführliche Messungen im Rahmen dieser Arbeit zeigen, daß die relativen Abhängigkeiten mit 0,2 Promille jedoch in einem Bereich liegen, in dem sie durch geeignete Maßnahmen kontrolliert werden können. Dazu zählen die regelmäßige Kalibrierung, sowie die Messung und Überwachung von Temperatur und Versorgungsspannung. Die Leistungsaufnahme des Auslesesystems liegt mit 5kW (total) noch um ca. einen Faktor zwei über den Spezifikationen. Sowohl die Tests des TDC Zeitmeßteils, als auch die Simulationen zeigen die Realisierbarkeit des Systems. Dies konnte auch durch Simulationen des gesamten Auslesesystems im Rahmen einer Projektstudie zum Triggerkonzept an der Universität Giessen nachgewiesen werden. Ein abschließender Funktionstest der Ausleseelektronik mit dem TDC an der Prototypdriftkammer im Labor ist gegenwärtig in Vorbereitung. Zur endgültigen Realisierung der Ausleseelektronik bedarf es noch der Reduzierung des Platzbedarfes sowie der Leistungsaufnahme. Zur Reduktion der Größe des Motherboardes wird eine mehrlagige Platine entwickelt. Für die Anbringung der Daughterboards ist eine platzsparende Geometrie vorgesehen. Die Reduktion der Leistungsaufnahme wird hauptsächlich durch neuere Entwicklungen bei den Daughterboards möglich. Auch die Verwendbarkeit des im Rahmen eines anderen Projektes entwickelten SAM - Modules als Konzentrator für die Driftkammerauslese ist zu untersuchen. Da diese Karte auch einen DSP enthält, ist entsprechende Software erforderlich. Die Segmentierung des modularen Spektrometersystems erlaubt den endgültigen Aufbau in mehreren Schritten. Vorgesehen ist, zunächst nur einzelne Segmente oder einzelne Ebenen der Driftkammern aufzubauen, und das komplette System erst zu einem spätern Zeitpunkt in Betrieb zu nehmen. Einzelne Komponenten können durch Neuentwicklungen ersetzt werden.
In der vorliegenden Diplomarbeit wurden verschiedene THz-Emissions- und Detektionsverfahren im Hinblick auf ihre Eignung für das verwendete regenerativ verstärkte Lasersystem verglichen. Als der Emitter mit der höchsten Konversionseffizienz und dementsprechend den höchsten THz-Pulsenergien erwies sich der großfkächige, extern vorgespannte GaAs-Emitter. Bezüglich des für viele Anwendungen wichtigeren Signal-Rausch-Verhältnisses hingegen zeigt sich für Frequenzen oberhalb von etwa 200 GHz der EO-ZnTe-Emitter als überlegen. Weder der intrinsische Emitter, noch das vorgespannte Plasma ließen eine vergleichbare Eignung erkennen. Für die THz-Detektion ist das Ergebnis eindeutig: Die EO-Detektion ist für das verwendete Lasersystem der Detektion mit Halbleiter-Antennen sowohl hinsichtlich Signal-zu-Rauschverhältnis als auch Bandbreite überlegen. Zur Steigerung der emittierten Bandbreite und der detektierten Feldstärke der Emissionsverfahren bestehen verschiedene Ansätze: ...
Die zentrale Frage dieser Studie lautet: Wann ist eine stetige Funktion auf einem kompakten Raum, welche Werte in einem lokalkonvexen Raum annimmt, (Pettis-)integrierbar?
Im ersten Kapitel wird definiert, was konvexe Kompaktheit ist. Es wird das Pettis-Integral vorgestellt, und der Zusammenhang zwischen der konvexen Kompaktheitseigenschaft (oder ccp) und dem Pettis-Integral wird erläutert. Außerdem stellt dieses Kapitel dar, inwiefern die ccp aus stärkeren Eigenschaften lokalkonvexer Räume folgt oder schwächere impliziert. Das zweite Kapitel beweist hauptsächlich den Satz von Krein, der einen Zusammenhang zwischen Vollständigkeit unter der Mackey-Topologie und der ccp unter der schwachen Topologie herstellt. Das dritte Kapitel erläutert mit Gegenbeispielen, inwiefern die in Kapitel 1 vorgestellten Vollständigkeitseigenschaften lokalkonvexer Räume notwendig gegeneinander abgegrenzt sind. Das vierte Kapitel stellt zuerst das Bochner-Integral und das starke OperatorIntegral vor, um dann die starke konvexe Kompaktheitseigenschaft oder sccp einzufuhren, eine Eigenschaft, welche der ccp verwandt ist. Es wird fur einen Raum beispielhaft bewiesen, daß er diese Eigenschaft besitzt. Zuletzt wird der Zusammenhang von sccp und ccp ausfuhrlicher dargestellt.
Diese Arbeit wendet sich an Leser, denen die Grundlagen der Theorie lokalkonvexer Räume schon vertraut sind. Insbesondere ist Vertrautheit mit den Begriffen tonneliert, ultrabornologisch, bornologisch, polare Topologie unterstellt. Man findet eine kurze und einfach verständliche Einfuhrung im Werk [RR]. Alle über diese Grundlagen hinausgehenden Resultate werden in dieser Arbeit mit Beweis ausgefuhrt, oder es wird mit Angabe der Fundstelle auf die Literatur verwiesen.
Moderne Softwaresysteme gewinnen zunehmend an Komplexität und bestehen inzwischen aus einer für Menschen nicht mehr überschaubaren Menge an Quellcode-Zeilen. Die Problematik könnte damit zusammenhängen, dass Programmiersprachen als Sprachen linear orientiert sind. Es stellt sich die Frage, ob graphische Darstellungen besser geeignet wären. Durch das Hinzufügen einer zweiten Dimension könnten Vererbungshierarchien und vernetzte Zusammenhänge – wie beispielsweise Funktionsaufrufe – besser visualisiert und durch das Ausblenden von Implementierungsdetails auf einen Blick erfasst werden. In dieser Arbeit werden Möglichkeiten der Visualisierung untersucht, bei denen der Sourcecode graphisch dargestellt wird und bei denen eine Änderung in der graphischen Darstellung in einem veränderten Sourcecode resultiert. Die Kernfrage, die in dieser Arbeit untersucht werden soll, ist, ob graphisch orientierte Tools die Programmierung wesentlich beschleunigen können. Dabei wird hauptsächlich auf die Visualisierung der vernetzten Strukturen von Klassen und Methoden Wert gelegt sowie auf die automatische Generierung. Ohne eine Automatisierung muss zu viel Zeit investiert werden, um die Darstellung zu erzeugen und mit geänderten Code konsistent zu halten. Dabei werden bisherige Konzepte wie die graphische Modellierungssprache UML beschrieben und die Umsetzung in unterschiedlichen Programmen untersucht. Die Abbildung von UML-Diagrammen in Sourcecode und von Sourcecode in UMLDiagramme bereitet jedoch einige Probleme, da viele Konzepte von UML zu stark abstrahieren und eine Abbildung nicht eindeutig und teilweise nicht möglich ist. Aus diesem Grund wird aufbauend auf den vorhandenen Möglichkeiten ein neues Konzept entwickelt, das prototypisch implementiert wird. Dabei werden viele Elemente von UML genutzt und auf die gestellten Anforderungen angepasst, sodass eine automatische graphische Darstellung parallel zur Programmierung in Textform möglich ist.
Diese Diplomarbeit beschäftigt sich sowohl mit der Akquisition, der Verwaltung und der winkelabhängigen, spektralen Reflexionsfunktion BRDF (Bidirectional Reflectance Distribution Function) und BTFs (Bidirection Texture Functions) von einigen ausgewählten realistischen Materialoberflächen bei fester Beleuchtung, als auch der Generierung der BTFs aus vorhandenen BRDFs und BTFs und der Anwendung der Beschreibung von Oberflächen mittels BRDFs und BTFs bei Erzeugungen von 3D-Szenen. Im Rahmen dieser Diplomarbeit werden Konzepte für eine effektivere Nutzung von BTFs in der photorealistischen Bilderzeugung entwickelt und prototypisch umgesetzt. Der Fokus liegt dabei auf einer vereinfachten Synthese von BTFs aus vorhandenen BRDF- und BTF-Daten, sowie in einer effizienten Nutzbarmachung dieser Informationen für Rendering-Prozesse.
Die Implementation der Striktheits-Analyse, die im Zuge dieser Arbeit vorgenommen wurde, stellt eine effiziente Approximation der abstrakten Reduktion mit Pfadanalyse dar. Durch die G#-Maschine, ein neues, auf der G-Maschine basierendes Maschinenmodell, wurde die verwendete Methode systematisch dargelegt. Die große Ähnlichkeit mit der G-Maschin, die in unserer Implementation beibehalten werden konnte, zeigt, wie natürlich die verwendete Methode der Reduktion in funktionalen Programmiersprachen entspricht. Obwohl die Umsetzung mehr Wert auf Nachvollziehbarkeit, als auf Effizienz legt, zeigt sie, daß die Methode der abstrakten Reduktion mit Pfadanalyse auch in einer funktionalen Implementierung durchaus alltagstauglich ist und Striktheits-Information findet, die Umsetzungen anderer Methoden nicht finden. Es bestehen Möglichkeiten zur Optimierung u. a. von Programmteilen, die für jede simulierte G#-Maschinen-Anweisung ausgeführt werden. Bei vorsichtiger Einschätzung erscheint eine Halbierung der Laufzeit mit vertretbarem Aufwand erreichbar.
Gegenstand der Arbeit ist ein Gleichheitskalkül für den Kern einer nicht-strikten funktionalen Programmiersprache. Funktionale Programmiersprachen unterstützen bestens die Prinzipien Abstraktion, Einkapselung, Hierarchiesierung und Modularisierung, die gemeinhin als Grundelemente des Software-Engineering betrachtet werden. Darüber hinaus bieten funktionale Programmiersprachen aufgrund ihrer Entwicklung aus dem Lambda-Kalkül eine große Nähe zu mathematischen Modellen. Daher besitzen sie im Bereich der Programmverifikation ausgeprägte Vorteile gegenüber imperativen oder objekt-orientierten Programmiersprachen. In der Arbeit wird nun ein Gleichheitsbegriff für Ausdrücke in funktionalen Programmiersprachen entwickelt und dessen Praktikabilität durch die Implementierung eines Beweisers untermauert. Dieser Gleichheitsbegriff ist die kontextuelle Gleichheit, die Ausdrücke aufgrund ihres Terminierungsverhaltens als Unterprogramme in allen möglichen Kontexten einordnet. Kontextuelle Gleichheit wird in Kapitel 2 vorgestellt, nachdem der klassische und der sogenannte "lazy" Lambda-Kalkül eingeführt wurden. Kapitel 3 enthält einen Überblick über die funktionale Programmierung, da auch die Implementierung des o.g. Beweisers in einer funktionalen Programmiersprache, nämlich Haskell, durchgeführt wird. In Kapitel 4 wird die funktionale Kernsprache, die Gegenstand der Untersuchung sein wird, beschrieben. Sie enthält alle wesentlichen Elemente wie z.B. Funktionsdefinition und -anwendung sowie Datentypen. Im selben Kapitel wird auch der Gleichheitsbegriff für diese Kernsprache definiert. Kapitel 5 schließlich entwickelt auf Basis der zuvor erfolgten Definitionen einen Kalkül für den Gleichheitsbeweis. Außerdem wird in diesem Kapitel auch die Umsetzung dieses Gleichheitskalküls präsentiert. Aus der Dissertation von Marko Schütz werden hierbei Erkenntnisse über die Kontextanalyse verwendet, um erfüllende Belegungen von freien Variablen zu berechnen. Die Arbeit schließt mit Beispielanalysen und Meßwerten sowie einer Diskussion der Ergebnisse und möglicher Erweiterungen.
In Abschnitt 4.1 wurden Algebren auf Mengen und Relationen vorgestellt. Desweitern wurde in Abschnitt 4.2 eine zu ALC erweiterte terminologische Wissensrepräsentationssprache ALCX definiert und gezeigt, daß die in Abschnitt 4.1 vorgestellten Algebren zur Festlegung der odell-theoretischen Semantik der Sprache ALCX benutzt werden können. Als Ergebnis einer derartigen Festlegung kann jeder terminologische Ausdruck direkt mit einem algebraischen Term assoziiert werden. Desweitern können alle in den Algebren aufgeführten universellen Identitäten in semantisch äquivalente terminologische Identitäten überführt werden. Eine mittels ALCX repräsentierte Wissensbasis ist in meinem Programm mit Hilfe der in der funktionalen Programmiersprache Gofer (Version 2.28) gegebenen Möglichkeiten formuliert. Mein Programm bietet durch Simplifizierung von Anfrageausdrücken eine optimierte Lösung des aus dem Bereich der Wissensrepräsentation bekannten Retrieval-Problems. Die Simplifizierung von Anfrageausdrücken wird in meinem Programm erzielt, indem in den oben genannten Algebren erfüllte universelle Identitäten als Simplifikationshilfsmittel benutzt werden. Die in den Algebren aufgeführten universellen Identitäten bestehen stets aus zwei äquivalenten Termen, für die eine unterschiedliche Anzahl von Reduktionsschritten zur Evaluierung benötigt werden. Es existieren universelle Identitäten, bei denen unabhängig von den Instanzen der Argumentterme ein Term gegenüber einem anderen Term effizienter auswertbar ist. Bei diesen universellen Identitäten kann eine Simplifikation von einem Term zu einem anderen Term immer unproblematisch realisiert werden. Es gibt jedoch auch universelle Identitäten, bei denen die Unabhängigkeit von den Instanzen der Argumentterme nicht gegeben ist. In diesen Fällen wird ein von der Wissensbasis abhängiges Komplexitätsabschätzungsverfahren eingesetzt, um den effizienter auswertbaren Term von zwei an einer universellen Identität beteiligten Termen zu ermitteln. Daß die Simplifikation eines Anfrageausdrucks große Einsparungen bei dessen Auswertung nach sich ziehen kann, wurde an verschiedenen Beispielen in Abschnitt 5.4.4 gezeigt. Über eine weitere Möglichkeit, die zum Simplifizieren von Anfrageausdrucken verwendet werden kann, wurde in Abschnitt 5.4.5 berichtet. Die Genauigkeit der Komplexitätsabschätzung kann erhöht werden, indem das Komplexitätsabschätzungsverfahren erweitert wird. So kann beispielsweise die Komplexität der Funktion "oder" genauer abgeschätzt werden, indem für zu vereinigende Mengen überprüft wird, ob Teilmengenbeziehungen vorhanden sind. Durch eine genauere Abschätzung der Mächtigkeit entstehender Vereinigungsmengen wird die Komplexitätsabschätzung insgesamt in ihrer Genauigkeit gesteigert. Eine Änderung der Instanzen meiner terminologischen Datenbank erfordert eine Änderung des Skripts meines Programms. Indem die Instanzen-Daten in einer veränderlichen Datenbank festgehalten würden, könnte hier Abhilfe geschaffen werden. Dies könnte im Rahmen der Erstellung einer benutzterfreundlichen Ein- und Ausgabe-Schnittstelle realisiert werden.
Ziel dieser Arbeit war es, ein System zu entwickeln, mit dem Sätze von Reduktionsdiagrammen auf ihre Vollständigkeit überprüft werden können. Das System sollte in der puren, funktionalen Programmiersprache Haskell realisiert werden und speziell auf einen nichtdeterministischen Kalkül mit Konstruktoren, einem case-Konstrukt und einem rekursiven let- Ausdruck (letrec) ausgerichtet sein. Dazu wurde in Kapitel 2 der lambda-Kalkül und funktionale Programmiersprachen eingeführt, um die Entwicklung der Kalküle lambda-nd und lambda-nd,rec zu motivieren. Die Basis-Kalküle lambda-nd und lamda-nd,rec wurden in Kapitel 3 bezüglich ihrer Sprachdefinition und Reduktionsregeln vorgestellt. Die Implementierung der beiden Kalküle und der Parser für die verwendete Kernsprache wurden ebenso angegeben wie die Mechanismen zur Markierung und Reduktion der Terme. Die Unterscheidung eines reduzierbaren Terms in NO- und internen Redex, sowie deren Erkennung wurde in diesem Kapitel besonders herausgestellt, da sie die Grundlage für die zu validierenden Reduktionsdiagramme darstellt. Damit ist der Grundstock für diese Arbeit gelegt worden. In Kapitel 4 haben wir kurz Methoden vorgestellt, die lamda-Kalkülen und deren Derivate eine Bedeutung zuzumessen versuchen, um Programme oder Terme miteinander vergleichen zu können. Also nicht nur ihre Termstruktur, sondern ihr Verhalten zu vergleichen. Dabei ist festgestellt worden, daß für nichtdeterministische Kalküle nur eine Methode verfügbar ist, und zwar die der kontextuellen Äquivalenz. Da wir gängige Programmtransformationen dahingehend überprüfen wollten, ob sie der kontextuellen Äquivalenz genügen, also nicht die Auswertung oder das Ergebnis derselben verändern, haben wir ein Kontext-Lemma vorgestellt. Mit Hilfe des Kontext-Lemmas ist es uns möglich gewesen, die Gültigkeit von Beweisen in Reduktionskontexten auf beliebige Kontexte auszudehnen. Für die eigentlichen Beweise werden Reduktionsdiagramme benötigt, die Reduktionsfolgen in verschiedener Weise umstellen. Wir haben die Reduktionsdiagramme ebenfalls in Kapitel 4 definiert. Die Reduktionsdiagramme müssen an jeder Stelle einer Reduktionsfolge anwendbar sein, da sonst die Äquivalenz-Beweise nicht möglich sind. D. h. es müßte bewiesen werden, daß mindestens ein Reduktionsdiagramm einer definierten Menge von Reduktionsdiagrammen für jeden Term und jede seiner Reduktionsfolgen anwendbar ist. Der naive Weg wäre, alle Terme und seine Reduktionsfolgen dahingehend zu überprüfen. Da dies jedoch nicht möglich ist, haben wir uns dazu entschlossen so viele Terme wie möglich zu untersuchen, nicht um die Vollständigkeit der Diagramme zu beweisen, sondern um zu zeigen, daß auf viele verschiedenartige Terme Reduktionsdiagramme erfolgreich angewendet werden können. Die Generierung der Terme haben wir in Kapitel 5 ausführlich dargestellt. In Kapitel 6 haben wir die Sprache zur Darstellung von Reduktionsdiagrammen und die Implementierung der Diagramm-Validierung beschrieben. Weiterhin haben wir ein Verfahren vorgestellt, mit dem wir fehlende Diagramme für Terme suchen und meist auch finden können. Das gesamte System haben wir so aufgebaut, daß eine große Menge an Termen generiert wird, für die Diagramme anwendbar sein müssen. Wenn keines der Diagramme auf einen Term anwendbar ist, also nicht validiert werden kann, dann wird ein passendes Diagramm gesucht. Mit Hilfe des entwickelten Systems Jonah sind in Kapitel 7 verschiedene Programmtransformationen dahingehend überprüft worden, ob die angegebenen Reduktionsdiagramme für große Mengen von Termen gültig sind. Dabei ist als Ergebnis herausgekommen, daß ein vollständiger Satz an Reduktionsdiagrammen für die (cp)-Reduktion nur sehr schwer zu finden ist. Selbst neu hinzugefügte Transformationen, die dabei helfen sollten, die Schwierigkeiten zu umgehen, konnten nicht verwendet werden, da es uns ebenfalls nicht möglich gewesen ist, für sie vollständige Diagrammsätze zu finden. Daraufhin haben wir den Basis-Kalkül zweimal erweitert, um die Schwierigkeiten der (cp)-Diagramme in den Griff zu bekommen. Aber auch diese Ansätze haben kein zufriedenstellendes Ergebnis geliefert. Als positives Ergebnis dieser Arbeit kann aber festgestellt werden, daß das System Jonah bei der Entwicklung nichtdeterministischer Kalküle auf Basis von lambda-Kalkülen eine sehr gute Hilfestellung sein kann, auch wenn es nicht zum vollständigen Beweis der Gültigkeit von Reduktionsdiagrammen dienen kann.
Die Konvergenz von Medien, Telekommunikation sowie Informationstechnologie führt zu einer gesteigerten Interaktion zwischen den Computergeräten dieser drei Wirtschaftssektoren. Zugleich steigt die Anzahl mutierender Würmer, Viren und Trojanische Pferde, wie z.B. Varianten der Bagle- und Sober-Würmer oder der Netsky- und MyDoom-Viren, im Tagesrhythmus und bedrohen die Sicherheit von Computerplattformen. Die Daten der Systeme sind daher potenziellen Risiken ausgesetzt. Um dieser steigenden Bedrohung zu entgegnen, entwickelt die industrielle Initiative „Trusted Computing Group“ (TCG), ehemals „Trusted Computing Platform Alliance“ (TCPA), einen Standard, welcher die Sicherheit der verschiedenen Gerätetypen verbessern soll. Abbildung 1 dokumentiert dabei die Sicherheitsmängel, welche durch die verschiedenen Typen der Attacken oder den entdeckten Missbrauch veranschaulicht werden. Speziell Viren und der Missbrauch der Netzwerkzugänge innerhalb des Unternehmens können aus der Abbildung 1 als häufigste Ursache entnommen werden. Verlust des Laptops, nicht autorisierte Zugriffe durch Insider und Denial of Service Angriffe folgen auf den weiteren Plätzen. Die Gesamtkosten der Computerkriminalität sind zwar unter das Niveau vom Jahre 2000 gefallen, speziell von 2002 auf 2003 haben sich diese mehr als halbiert, obwohl seit 1999 besonders die Urheberrechtsverletzungen proprietärer Informationen stetig angestiegen sind. Der Verlust proprietärer Informationen steht mit 21 Prozent nicht direkt im Vordergrund der obigen Abbildung. Allerdings schlägt der Diebstahl von proprietären Informationen mit 35 Prozent der Gesamtkosten der Computerkriminalität zu buche und führt damit die geschätzten Verluste aus Abbildung 2 an. Auf Platz zwei folgen Denial of Service Angriffe, die Kosten von ca. 65,6 Millionen Dollar verursachen. Viren, Missbrauch des Netzes durch Insider sowie finanzieller Betrug folgen auf weiteren Plätzen. In der Studie vom Computer Security Institute werden die Bestrebungen der TCG, vertrauenswürdige Plattformen herzustellen, als mögliche Lösung des Problems des Diebstahls von proprietären Informationen betrachtet. Deren Effekte werden sich voraussichtlich in fünf bis zehn Jahren auf die Computersicherheit bemerkbar machen. Auch das „Federal Bureau of Investigation“ (FBI) hat mittlerweile eine Initiative zusammen mit der Entertainment- und Softwareindustrie gegen den Diebstahl von urheberrechtlich geschütztem Material abgeschlossen, da die Verluste in der Summe mehrere Billionen Dollar verursachen. Die beiden ersten Abbildungen in Verbindung mit dem dazugehörigen Zahlenmaterial belegen die Diskrepanz der TCG. Dazu stützt sich die TCG auf die steigende Anzahl an Attacken und Missbräuche, ohne die geschätzten Verluste der einzelnen Attacken zu berücksichtigen. Gerade die enorme wirtschaftliche Bedeutung von Information und deren Missbrauch offenbart allerdings einen möglichen Antrieb, die Sicherheit bestehender Rechnersysteme zu verbessern. Diese Erkenntnis ist jedoch nicht übereinstimmend mit der Triebkraft der TCG, die ihre Initiative auf die steigende Anzahl an Schwachstellen stützt, um vermutlich ihre eigentlichen Beweggründe zu verschleiern. Ziel dieser Arbeit ist zum einen den technischen Standard der TCG sowie mögliche Umsetzungen vorzustellen und zum anderen die Standardisierung unter ökonomischen Ansichten zu untersuchen, um sie anschließend zu bewerten. Dazu wird im zweiten Kapitel ein erster Einblick über das Standardisierungsgremium, deren Beweggründe sowie den historischen Kontext zwischen TCPA und TCG gegeben. Das dritte Kapitel dient als Grundlage und Einführung in die Informationsökonomie, um die Komplexität und Zusammenhänge hinsichtlich der Standardisierung und abschließenden Bewertung in den folgenden Kapiteln besser zu erfassen. Neben der Technologie und Information spielt die Auswahl der Erlöse in Verbindung mit der Preisdiskriminierung eine wichtige Rolle. Bezüglich der Standardisierung und Bewertung haben Lock-in sowie Wechselkosten erhebliche Auswirkungen auf die Kon-sumenten. Das gilt ebenfalls für die Größenvorteile, vor allem auf die Netzwerkexternalitäten. Die Standardisierung der TCG wird im vierten Kapitel ausführlicher behandelt, wobei Standards definiert, abgegrenzt und klassifiziert werden. Zudem wird die koope-rative Standardisierung in Form einer Allianz sowie die daraus folgende Problematik des Umgangs mit geistigem Eigentum eingegangen. Das fünfte Kapitel geht direkt auf die technischen Spezifikationen der TCG ein, erklärt das Grundkonzept vertrauenswürdiger Plattformen und behandelt als Schwerpunkt die Komponente des „Trusted Platform Modules“ (TPM) sowie dessen Implementierung in einen Computer. Im Anschluss daran werden im sechsten Abschnitt technischen Umsetzungen auf praktische Anwendungen und Szenarien vorgestellt. Dazu werden als Erstes verfügbare Umsetzungen sowie die Hardwarearchitektur am Beispiel von Intel LaGrande dargestellt, worauf die anschließenden Softwareanwendungen unter den beiden Betriebssystemen Windows und Linux aufbauen. Das siebte Kapitel behandelt die Bewertung der kooperativen Standardisierung und zeigt die Zusammenhänge zwischen Hardwarekompatibilität und Netzwerkexternalitäten auf. Darüber hinaus wird die Adoption dieser neuen Technologie unter statischen und dynamischen Ansätzen berechnet und abschließend die Schwächen und Risiken dieser neuen Technologie erläutert.
In dieser Diplomarbeit wurde zunächst eine Einführung in das Gebiet der Unifikationstheorie gegeben, um dann zum Teilgebiet des Kontextmatchings zu kommen. Dieses wurde in das Gesamtgebiet der Unifikation eingeordnet. In Anlehnung an [Schm2003] wurde die Komplexität einiger Einschränkungen des Kontextmatchings betrachtet. Insbesondere wurde ein Algorithmus zur Lösung linearer Kontextmatchingprobleme in polynomieller Zeit vorgestellt. Es folgte die Einführung des Transformationsalgorithmus aus [Schm2003] zur Lösung allgemeiner Kontextmatchingprobleme, wobei nach und nach verbesserte Transformationsregeln für einzelne spezielle Problemsituationen vorgestellt wurden. Über [Schm2003] hinausgehend wurden die Regeln Split: Korrespondierende Lochpfade und Konstantenelimination vorgestellt. Im Rahmen der Diplomarbeit wurden die genannten Algorithmen in der funktionalen Programmiersprache Haskell implementiert, wobei auf eine einfache Erweiterbarkeit um neue Transformationsregeln sowie alternative Heuristiken zur Auswahl der in einem Schritt anzuwendenden Transformationsregel geachtet wurde. Die Implementierung (und damit auch die in ihr implementierten Algorithmen) wurde mit Hilfe von zufällig erzeugten Termen auf ihre Leistungsfähigkeit getestet. Hauptaugenmerk lag dabei darauf, inwiefern sich Regeln, die über die Basisregeln aus Tabelle 3.4.1 hinausgehen, positiv auf die Anzahl der Transformationsschritte auswirken. Das Ergebnis ist beeindruckend: durch die Einführung komplexerer Transformationsregeln ließen sich in unseren Testfällen bis zu 87% der Transformationsschritte einsparen, im Durchschnitt immerhin noch 83%. Speziell komplexere Kontextmatchingprobleme mit einer größeren Anzahl an Kontextvariablen profitieren hiervon. Insbesondere die Erkennung korrespondierender Positionen in Verbindung mit der Regel Split führte zu erheblichen Verbesserungen. Die implementierten Algorithmen zur Erkennung korrespondierender Positionen stellen teilweise nur ein notwendiges Kriterium für die Existenz korrespondierender Löcher dar. Dies kann zu fehlerhaften Erkennungen solcher Positionen führen. Wie sich in unseren Tests zeigte, scheint das jedoch kein gravierendes Problem zu sein, da die entsprechenden Split- Transformationen ohnehin äußerst sparsam eingesetzt werden.
Wir haben ein Softwaresystem entwickelt, das in der Lage ist, Beschreibungen von Termersetzungssystemen höherer Ordnung, deren Reduktionsregeln auf einer strukturellen operationalen Semantik basieren, einzulesen und zu interpretieren. Das System ist dabei fähig, Reduktionskontexte für die Redexsuche zu benutzen, die entweder vom Benutzer definiert werden können oder automatisch anhand der strikten Positionen berechnet werden. Außerdem dürfen Kontexte und spezielle Definitionen für Term-Mengen, die wir Domains nennen, in den Reduktionsregeln verwendet werden. Mit dem resultierenden Reduktionssystem-Format können wir somit nicht nur den „lazy“ Lambda-Kalkül, den Call-by-Value Lambda-Kalkül und verwandte, um Konstruktoren und Fallunterscheidungen erweiterte Kalküle, wie die in Kapitel 4 vorgestellten Kernsprachen KFP und PCF, darstellen, sondern auch den (in Abschnitt 4.3 vorgestellten) Call-by-Need Lambda-Kalkül, welcher sich durch die Verwendung von Kontexten innerhalb der Regeln deutlich von den anderen Kalkülen abhebt. Allerdings hält sich der Call-by-Need Lambda-Kalkül damit nicht an das in Kapitel 5 vorgestellte GDSOS-Format, das u.a. sicherstellt, dass Bisimulation eine Kongruenz ist. Wir haben dabei in Abschnitt 5.3.3 bewiesen, dass sich ein GDSOS-Reduktionssystem in ein äquivalentes strukturiertes Auswertungssystem nach Howe übersetzen lässt. Unser System ist in der Lage, die GDSOS-Bedingungen zu prüfen und gibt eine Warnung aus, falls eine der nötigen Bedingungen nicht erfüllt ist (wobei aus dieser auch gleich der Grund des Verstoßes hervorgeht). Wie wir gesehen haben, ist unser System nicht nur befähigt, die einzelnen Reduktionsschritte für kleinere Bespiele ordnungsgemäß auszuführen, sondern es ist durchaus in der Lage, auch aufwendigere KFP-Ausdrücke, wie in unserem Quicksort- Beispiel, auszuwerten.
In der vorliegenden Diplom-Arbeit wurde das in [19] vorgeschlagene Modell zur Partitionierung hybrider Systeme diskutiert und die Anwendbarkeit verschiedener verschiedener Optimierungsverfahren auf das Problem untersucht.
Hierbei wurde der Systemgraph um die Ein-/Ausgabe-Blöcke erweitert, damit der Systemgraph eine eine konsistente Erweiterung des des Graphen-Modells darstellt. Weiterhin wurden die Probleme und Einschränkungen aufgezeigt, die sich bei der Abbildung eines hybriden Systems auf den Systemgraphen ergeben.
In dieser Arbeit wurde eine Geometrieuntersuchung am FABP-Molekülmodell durchgeführt. Um 3J-Kopplungsinformation für die Diederwinkelanalyse zu bestimmen, wurden J-modulierte [15N,1H]-COSY-Experimente durchgeführt. Mit Hilfe numerischer Anpassungsroutinen wurden die Signalintensitäten quantitativ ausgewertet, um sehr genaue 3JHN,H-alpha-Kopplungskonstanten zu erhalten. Diese Kopplungskonstanten wurden in Kraftfeldrechnungen als experimentelle Randbedingungen für die Phi-Diederwinkel des Proteinrückgrates berücksichtigt. Dadurch ist eine Aussage über die Winkelverteilung und über die zeitlich gemittelten Kopplungseffekte im Proteinmodell möglich. Die aus der Molekulardynamiksimulation bestimmten 3JHN,H-alpha-Kopplungskonstanten wurden mit den experimentellen verglichen. Die Analyse ergab, daß die den beta-Faltblättern zugewandten Ränder der alpha-Helixbereiche sowie zwei der zehn beta-Faltblattbereiche sehr flexible Teilabschnitte aufweisen. Diese Arbeit konnte somit die Überlegungen stützen, die vor allem den flexiblen Teilabschnitt zwischen der alpha-II-Helix und dem beta-B-Faltblattbereich für die Funktion des Proteins verantwortlich machen.
Wir betrachten das auf der Crypto '97 vorgeschlagene gitterbasierte Kryp- tosystem von Goldreich, Goldwasser und Halevi (GGH) [11]. Die Autoren veröffentlichten Challenges zu den Sicherheitsparametern 200, 250, 300, 350 und 400 [12]. Jeder Challenge besteht aus dem öffentlichen Schlüssel, sowie einem Ciphertext. Für den Angriff entwickeln wir numerisch stabile Gitterreduktionsalgorithmen, die es ermöglichen, das System in diesen Dimensionen anzugreifen. Es werden Methoden zur Orthogonalisierung, die sogenannten House- holder-Reflexionen und Givens-Rotationen behandelt, und eine praktikable Gleitpunkt-Arithmetik Version des LLL-Algorithmus nach Lenstra, Lenstra und Lov'asz [16] angegeben. Wir entwickeln und analysieren den LLL-Block- Algorithmus, der die Gitterreduktion in Blöcken organisiert. Die Gleitpunkt-Arithmetik Version des LLL-Block-Algorithmus wird experimentell auf das GGH-Schema angewendet und mit der LLL-Reduktion in den Dimensio- nen 100 bis 400 verglichen. Neben der besseren numerischen Stabilität ist die LLL-Block-Reduktion um den Faktor 10 bis 18 mal schneller als die gewöhnliche LLL-Reduktion. Das GGH-Kryptosystem wurde ebenfalls von Nguyen [22] angegriffen, und die ursprünglichen Nachrichten wurden bis in Dimension 350 rekonstruiert. Wir stellen weitere Angriffe auf das Kryptosystem vor. Es zeigt sich, dass die öffentlichen Parameter für erfolgreiche Angriffe benutzt werden können. Der private Schlüssel in der Dimension 200 wird nach ca. 10 Stunden rekonstruiert und Ciphertext-Attaken sind bis in Dimension 300 erfolgreich.
Um in verschiedenen Anwendungsumgebungen eingesetzt werden zu können, lässt die CORBA-Spezifikation einen weiten Spielraum für Implementierungen. Sollte CORBA in einem speziellen Umfeld eingesetzt werden, so war bisher eine Neu-Implementierung notwendig, da herkämmliche CORBA-Implementierungen nicht oder nur sehr eingeschränkt an spezielle Anwendungsumgebungen anpassbar sind. In dieser Arbeit wurde ein Ansatz für eine erweiterbare CORBA-Implementierung vorgestellt und implementiert.
Das Ziel der vorliegenden Arbeit war - neben einer Einführung in die Evolutionspsychologie - Belege für eine evolutionär bedingte Partnerwahlpsychologie zu erbringen. Hierfür wurden Teile einiger zentraler Studien der evolutionären Psychologie repliziert und anhand eines webbasierten Bildschirmfragebogens eine geschlossene Onlinebefragung (N = 221; männlich = 72; weiblich = 149) durchgeführt. Neben allgemeinen evolutionspsychologischen Replikationen zu Partnerpräferenzen hinsichtlich langfristiger Beziehungen, wurden Befunde einer Studie zur Theorie der strukturellen Machtlosigkeit, die von vielen Wissenschaftlern als konkurrierender Erklärungsansatz für Partnerwahlpräferenzen betrachtet wird, geprüft. Hierzu wurden die Generationszugehörigkeit und das monatliche Nettoeinkommen der Probanden als relevante Einflussgrößen kontrolliert. Des weiteren sollte die Flexibilität der Präferenzen geprüft werden. Hierfür wurden den Versuchspersonen die Items zur Beurteilung von Partnereigenschaften sowohl für langfristige Partner, als auch für kurzfristige Partner vorgelegt. Es konnte konsistent zu den Originalstudien aufgezeigt werden, dass Frauen im Gegensatz zu Männern eher einen Partner bevorzugen, der älter ist als sie und Attribute besitzt, die darauf schließen lassen, dass er ihnen finanzielle und materielle Sicherheit bieten kann. Männer wünschen sich hingegen eher eine Partnerin, die jünger und attraktiv ist. Die Präferenzen erwiesen sich als vollkommen unabhängig vom monatlichen Nettoeinkommen der Befragten. Alterskohorteneffekte waren bei einigen Präferenzen vorhanden, z.B.: Toleranz einer vorherigen Ehe oder gegenüber Kindern des potentiellen Langzeitpartners. Viele Partnerwahlpräferenzen erwiesen sich als sehr stark Abhängig von der berücksichtigten Beziehungsdauer und deckten sich mit den evolutionären Hypothesen zur adaptiven Flexibilität. Sowohl Frauen als auch Männer gaben ihre Alterspräferenzen bezüglich älterer, bzw. jüngerer Partner fast vollkommen auf. Männer tolerierten bei kurzfristigen Beziehungen ältere Partnerinnen in fast dem gleichen Maß wie Frauen und Frauen tolerierten entsprechen jüngere Partner. Weiterhin legten Frauen ihre Wünsche bezüglich toleriertem Mindeststand und Bildung ab. Außerdem beschrieben sich hypothesengemäß Männer tendenziell und Frauen hochsignifikant als anspruchsvoller bezüglich der physischen Attraktivität bei kurzfristigen Affären.
In der hier vorliegenden Arbeit wurden Spurenstoff-Flüsse zwischen Atmosphäre und Pedosphäre, sowie zwischen Atmosphäre und Vegetation untersucht. Der Austausch zwischen Atmosphäre und Boden wurde mit Hilfe von dynamischen Bodenkammern gemessen. Zur Bestimmung des Austauschs zwischen Atmosphäre und Biosphäre wurden Gradienten der Spurengase oberhalb der Baumkronen gemessen und daraus die Flüsse bestimmt. Weiterhin wurden methodische Vergleiche der Gradientmethode mit anderen Methoden (Relaxed-Eddy-Accumulation, Eddy- Correlation) durchgeführt. Die Untersuchungen mit Hilfe der Gaswechselkammern zeigen, dass während aller Messungen der Boden eine Senke von atmosphärischem Carbonylsulfid dargestellt hat. Hiermit wird die Rolle des Bodens als eine Senke für COS bestätigt. Die Depositonsraten betragen im Mittel - 0,81 pmolm exp -2 s exp -1 und besitzen eine Variabilität zwischen - 0,23 und - 1,38 pmolm exp -2 s exp -1. Im Vergleich zu den Literaturwerten (siehe Tabelle 1.1) sind die Aufnahmeraten des Bodens auf der Versuchsfläche "F1" schwach ausgeprägt. Im Vergleich zu anderen Arbeiten (siehe Lehmann & Conrad, 1996; Kesselmeier et al., 1999) sind keine eindeutigen Korrelationen zwischen dem COS-Fluss und der Lufttemperatur bzw. der Bodenfeuchte oder den Bodentemperaturen in 2, 5 und 10 cm zu erkennen. Diese hier aufgeführten Arbeiten beruhen jedoch auf Labormessungen mit nur sehr geringen homogenen und präparierten Bodenmengen. Die Feldmessungen im Rahmen dieser Arbeit wurden nicht unter vergleichbar definierten Bedingungen durchgeführt. Aufgrund zahlreicher beeinflussender Parameter und der vertikalen Inhomogenität des Bodens konnte jedoch auch nicht mit vergleichbar guten Korrelationen gerechnet werden. Eine saisonale Abhängigkeit der COS-Aufnahme ist über einen Zeitraum von 21 2 Monaten nicht ausgeprägt. Da die Messungen einer Kampagne im Mai 1999 aufgrund von Kontaminationen der Luftproben vollständig verworfen wurden, erstreckten sich die Messungen nur vom Hochsommer bis zum Frühherbst. Die räumliche Variabilität erreicht dagegen innerhalb einer Entfernung von 10 m eine Spanne zwischen - 0,43 und - 0,73 pmolm exp -2 s exp -1. Zurückzuführen ist dies auf die starke räumliche ....
Bisher wurden im deutschsprachigen Raum keine experimentellen Studien zur Wirksamkeit von Musiktherapie bei Demenzerkrankungen durchgeführt. Aus klinisch bedingten Umständen wurde ein Vergleich zwischen Musiktherapie und Biografiearbeit gewählt. Ihm liegt ein einfaktorieller Zufallsguppenversuchsplans mit Vorher-Nachher-Messung zugrunde. Es wurden mögliche Effekte der beiden psychologischen Interventionsformen auf Demenzerkrankungen im mittleren Stadium hinsichtlich des Schweregrades der Demenz, des Ausmaßes der kognitiven Beeinträchtigungen, der Stärke der Alltagskompetenz sowie des Grades der nichtkognitiven Begleitsymptomatik untersucht. Den Rahmen bildete eine Gedächtnissprechstunde, eine spezielle ambulante Einrichtung zur Diagnostik, Therapie sowie Beratung und Begleitung von Demenzerkrankungen. Die Stichprobe bestand aus 21 PatientInnen zwischen 55 und 84 Jahren. 12 davon waren weiblich (57%), die anderen neun männlich (43%). 12 der PatientInnen litten an einer Demenz bei Alzheimer-Krankheit (57%), sechs an einer vaskulären Demenz (29%), zwei an einer frontotemporale Demenz (9%). Bei einer Person (5%) ließ sich der Verdacht auf eine Demenzerkrankung im Verlauf der 15-wöchigen Behandlung nicht bestätigen, sondern sie erhielt die Diagnose einer anhaltenden depressiven Störung. Da es sich bei der Untersuchung wegen fehlender Vergleichsuntersuchungen zur Wirksamkeit psychologischer Interventionsverfahren eher um eine explorative Studie handelte, wurde ein Schwerpunkt auf die Darstellung der deskriptiven Ergebnisse gelegt. Die zur Absicherung durchgeführten inferenzstatistischen Berechnungen ergaben für die Musiktherapie keine Hinweise auf einen bedeutsamen Effekt in Bezug auf die genannten Symptome der Demenzerkrankung. Hingegen zeigte sich für die Biografiearbeit eine signifikante Wirksamkeit in Bezug auf den Schweregrad der Demenzerkrankung. Der Effekt erfolgte sogar in Richtung einer Verbesserung. U.a. wegen der geringen Probandenzahl ist insgesamt von einer eingeschränkten Aussagefähigkeit der inferenzstatistischen Ergebnisse auszugehen. Zudem eignete sich die Global Deterioration Scale (GDS) als Erhebungsinstrument zur globalen Einstufung des Schweregrades nur bedingt zur Veränderungsmessung und erwies sich als anfällig für eine mögliche Verzerrung von Ergebnissen. Doch insgesamt können die erhobenen Daten auch vorsichtig für beide psychologische Interventionsformen in der Art interpretiert werden, dass trotz des bekanntermaßen progredienten Verlaufs von Demenzerkrankungen keine weiteren signifikanten Veränderungen, also auch keine Verschlechterungen über einen Zeitraum von vier Monaten aufgetreten sind. Dies konnte auch auf deskriptiver Ebene bestätigt werden: So blieb in der Biografiearbeit-Gruppe mit ihren in der Tendenz noch leichten Störungen bei allen erfassten Verhaltensmerkmalen das vor der Intervention vorhandene Niveau erhalten und mit Ausnahme des Bereichs der Alltagskompetenzen zeigten sich in allen anderen Symptombereichen in Einzelfällen leichte Verbesserungen. Dies entspricht Befunden aus vergleichbaren Interventionsstudien. Im Vorher-Nachher-Vergleich war für die Musiktherapiegruppe das Niveau hinsichtlich des Schweregrades der Demenz, der kognitiven Störungen und der Alltagskompetenzen auch als unverändert anzusehen. Verbesserungen traten hier in Einzelfällen besonders in den alltagsbezogenen kognitiven Fähigkeiten auf. Dies ist um so erstaunlicher und als nicht erwartungsgemäß zu bezeichnen, da in der Musiktherapiegruppe in kognitiver Hinsicht schon eher schwere Störungen vorlagen. Aus diesen objektiv am Patienten festgestellten kognitiven Verbesserungen ergab sich eine Diskrepanz zu der hauptsächlich mit Hilfe von Fremdbeurteilung gewonnenen unveränderten Einstufung des Schweregrades. Diese wurde im Zusammenhang mit der zusätzlich in der Exploration erfassten geringeren Belastbarkeit der zugehörigen Angehörigen im Umgang mit den leicht erhöhten nichtkognitiven Störungen diskutiert.
In der vorliegenden Arbeit wurde die zeitaufgelöste Doppelionisation von diatomaren Molekülen in intensiven Laserpulsen untersucht. Dabei waren neben den einfachsten aller Moleküle, Wasserstoff und Deuterium, auch Sauerstoffmoleküle Gegenstand der Untersuchungen. Mit Hilfe der Pump-Probe-Methode konnte die Doppelionisation der Moleküle schrittweise herbeigeführt werden. Dazu wurde das Molekül zunächst von einem ersten schwachen Laserpuls (8 fs) einfachionisiert, bevor es nach einer Zeitverzögerung tau von einem intensiveren zweiten Puls (8 fs) doppelionisiert wurde. Die Zeit zwischen den beiden Pulsen konnte in Schritten einer Femtosekunde von 0 bis 100 fs variiert werden. Die COLTRIMS-Technik lieferte den gesamten Impuls der beiden Coulomb explodierten Fragmente, so daß auch die freigesetzte kinetische Energie (KER) der Ionen bestimmt werden konnte. Diese ist hauptsächlich bestimmt durch den internuklaeren Abstand der Kerne zum Zeitpunkt der Ionisation. Das KER Spektrum in Abhängigkeit der Verzögerung der beiden Pulse veranschaulicht somit die Bewegung des molekularen Wellenpaketes. Dabei konnte die Entwicklung des Wellenpakets entlang zweier verschiedener Potentialkurven in H+2 und D+2 beobachtet werden. Zum einen die Oszillation im gebundenen Potential 1s sigma g und zum anderen die Dissoziation auf der durch das Laserfeld verschobenen Dissoziationskurve 2p sigma u. Mit einem einfachen klassischen Modell konnte die freiwerdende kinetische Energie der durch dissoziative Ionisation entstandenen Ionen bestimmt und mit den Daten verglichen werden. Dabei konnte sowohl für H+2 als auch für D+2 eine gute Übereinstimmung erzielt werden. Wie zu erwarten zeigte sich, daß die Kernbewegung im Deuterium Molekül, aufgrund der höheren Masse, um den Faktor p2 langsamer verläuft. Durch Verwendung eines geringfügig längeren Pulses und eine leichte Minimierung der Laserintensität des Probe-Pulses konnte die dissoziative Ionisation verstärkt werden und der in der Literatur vielfach beschriebene CREI Prozeß direkt nachgewiesen werden. Auch im Falle des Sauerstoffs konnten die Entwicklung von Wellenpaketen in gebundenen und dissozierenden Potentialen beobachtet werden. Das spricht dafür, daß der Doppelionisation von Sauerstoffmoleküulen ein ganz ähnlichen Prozeß zugrunde liegt, wie es für diatomaten Wasserstoff der Fall ist. Die Frage nach dem genauen Ionisationsverlauf konnte jedoch nicht endgültig geklärt werden. Für H+2 und D+2 konnte ein sehr detailliertes Bild der Bewegung der Wellenpakete entlang der Potentialkurven gewonnen werden, das die quantenmechanische Natur der Wellenpakete wiederspiegelt.
In der vorliegenden Arbeit wurde eine Quelle für negative Ionen vorgestellt. Grundlage ist eine Mikro-Struktur-Elektrode, kurz MSE genannt. Diese besteht aus zwei Wolfram-Elektroden, die durch eine 100 mikrometer dicke Keramikfolie elektrisch getrennt werden. Eine Pore, die durch alle drei Schichten mit einem Laser gebohrt wird, dient zugleich als Düse für eine Überschall- Gasexpansion und als Volumen, in dem die Entladung brennt. Aus dem sehr geringen Elektrodenabstand resultieren auch bei vergleichsweise niedrigen Spannungen unter 1000 V ausreichend hohe Felder, um eine selbstständige Gasentladung bei Drücken von 0,1 bar bis hin zu mehreren bar zu gewährleisten. Mit Hilfe einer so generierten Entladung lassen sich die Bedingungen für die Bildung zahlreicher negativer Ionen schaffen. So können atomare Anionen wie H- oder O- auf sehr einfache Weise hergestellt werden. Des Weiteren gelingt es, eine Reihe molekularer Ionen zu erzeugen, wie etwa CH-, NO-, O-2 und O2H-. Da als Grundlage nur elementare Gase benutzt wurden, wird die Bildung von zum Beispiel NO- in der Regel über zwei oder mehr aufeinander folgende Prozesse verlaufen. Die elektrische Verschaltung der MSE ist derart gepolt, dass positive Ionen in Strahlrichtung beschleunigt werden. Entgegen ersten Vermutungen gelingt es den negativen Ionen, mit Hilfe des Gasflusses gegen das elektrische Feld in den Expansionsbereich zu gelangen. Die Brenneigenschaften des Plasmas sind hierbei erheblich besser als im Fall einer umgekehrten Polung. Dies ist vermutlich vor allem darauf zurückzuführen, dass im ersten Fall nur wenige Elektronen in die Expansionskammer gelangen. Die ebenfalls erzeugten Kationen [Schößler02] sorgen weiterhin für eine Verminderung der negativen Raumladung. Die Divergenz der Anionen wird daher bedeutend geringer, was vor allem vor Erreichen der Beschleunigungsstrecke von Bedeutung ist. Insgesamt besticht der Aufbau vor allem durch seine Kompaktheit. Die eigentliche Ionenquelle besteht aus einem 150 mikrometer dicken Plättchen mit 2,4 cm x 2,4 cm Außenmaß und einem Entladungsvolumen von 10-3 mm3. Benutzt man statt einer magnetischen Massenseparation ein Quadrupol-Spektrometer, sollte es möglich sein nach ca. 1 m Strahllänge einen fokussierten Ionenstrahl beliebiger in der Quelle erzeugbaren Ionen bereitstellen zu können....
Mikrowellen-Linearbeschleuniger arbeiten im allgemeinen mit einer geringen Stoßfrequenz. Um dennoch eine gute Luminosität zu erreichen, ist es erforderlich, eine große Teilchenzahl pro Bunch und einen sehr kleinen Strahlquerschnitt am Kollisionspunkt zu erreichen. Vor dem Hauptbeschleuniger sorgen entsprechende Quellen und die Dämpfungsringe für eine geringe Emittanz. Im Idealfall werden die Teilchenpakete vom Hauptbeschleuniger ausschließlich longitudinal beschleunigt. Bedingt durch höhere Moden kann es hier jedoch zum BBU (siehe Abschnitt 1.2) mit einer Verschlechterung der Strahlqualität oder gar Strahlverlust kommen. Dieser Effekt wird umso stärker, je größer die Teilchenzahl pro Bunch ist. Um den Einsatzpunkt für den BBU quantitativ zu bestimmen, ist es erforderlich, die Shuntimpedanzen der Störmoden zu kennen [1, 2]. Ziel dieser Arbeit war es, die Shuntimpedanzen aller Moden der ersten drei Pass-Bänder zu bestimmen. Hierzu wurde ein weitgehend automatisierter Störkörper-Meßstand mit zugehöriger Schrittmotorsteuerung und Steuerprogramm aufgebaut, der es ermöglicht, eine große Zahl von Meßpunkten aufzunehmen und so die statistischen Fehler klein zu halten. Die Messungen der Monopol-Moden wurde nicht-resonant in Transmission durchgeführt. Die Messungen der Dipol-Moden erfolgten mit der nicht-resonanten zwei-Störkörper-Methode in Transmission. Diese Methode macht Störkörpermessungen auch an Moden möglich, die ein überwiegend transversales elektrisches Feld haben. Aus den Meßdaten wurden die Gütefaktoren und Shuntimpedanzen ohne Phasenfaktor sowie nach Rekonstruktion der Phasensprünge die Shuntimpedanzen mit Phasenfaktor und die Transittime-Faktoren berechnet. Hierzu wurde ein Satz von Auswertungs-Programmen geschrieben. Parallel zu den Messungen wurden alle gesuchten Größen auch numerisch mit dem Programm MAFIA berechnet. Bei den Monopol-Moden zeigte sich eine gute Übereinstimmung zwischen Messung und numerischer Rechnung bei den Gütefaktoren und den longitudinalen Shuntimpedanzen ohne Phasenfaktor. Die Bestimmung der longitudinalen Shuntimpedanzen mit Phasenfaktor durch Rekonstruktion der Phasensprünge funktioniert bei großen Transittime- Faktoren gut. Bei sehr kleinen Transittime-Faktoren ist mit diesem Verfahren nur noch die Aussage möglich, daß die longitudinalen Shuntimpedanzen mit Phasenfaktor bzw. der Transittime-Faktor klein sind. Die genauen Werte hängen stark von kleinen Fehlern sowohl bei der Messung als auch in der Geometrie der Cavity ab. Moden mit sehr kleinem Transittime-Faktor beeinflussen den Strahl jedoch nicht wesentlich, so daß diese qualitative Angabe ausreichend ist. Von den Moden des TM01-Pass-Bandes hat nur die Beschleuniger-Mode einen großen Transittime-Faktor. Alle anderen Moden haben einen erheblich kleineren Transittime-Faktor. Bei den Dipol-Moden des zweiten und dritten Pass-Bandes zeigte sich eine Aufspaltung in zwei azimutale Polarisationsrichtungen, was auf einen kleinen Geometriefehler der Cavity schließen läßt. Die Polarisationsrichtung dreht sich vom einen zum anderen Ende der Cavity um etwa 10°. Da es sich um eine kleine Abweichung handelt, wurden die weiteren Messungen nur für eine der beiden Polarisationsrichtungen durchgeführt. Im TE/TM-Dipol-Pass-Band gibt es mehrere Moden, die wegen ihrer recht hohen transversalen Shuntimpedanz mit Phasenfaktor als Störmoden in Frage kommen. Die numerisch berechneten Werte stimmen bei diesen Moden relativ gut mit den gemessenen Werten überein. Wie schon bei den Monopol-Moden weichen die Werte für die Moden mit geringem Transittime-Faktor voneinander ab. Am TE-artigen Ende des Pass-Bandes werden die gemessenen Werte aufgrund der begrenzten Selektivität ungenau. Es ist allerdings zu bedenken, daß die gleichen kleinen Geometriefehler, die eine Polarisation bewirkt haben, auch für die Abweichungen bei den kleinen Transittime-Faktoren verantwortlich sein können. Im TM/TE-Dipol-Pass-Band ist die transversale Shuntimpedanz ohne Phasenfaktor bei allen Moden größer als im TE/TM-Pass-Band. Auch hier haben mehrere der Moden eine hohe transversale Shuntimpedanz mit Phasenfaktor. Die numerischen Berechnungen stimmen für dieses Pass-Band besser mit den Messungen überein als im TE/TM-Pass- Band. Mit den gemessenen Werten ist es möglich, den Einsatzpunkt für den BBU unter Berücksichtigung aller Moden der ersten drei Pass-Bänder zu bestimmem. Für den späteren Einsatz im Beschleuniger ist geplant, die Cavities mit zwei HOM-Dämpfern an den Enden auszustatten. Mit den gemessenen Werten kann berechnet werden, wie groß die Wirkung der Dämpfer sein muß, um bei dem vorgesehenen Strahl einen BBU-freien Betrieb zu ermöglichen. Bei der Vermessung der weiteren Pass-Bänder gibt es noch mehrere Probleme zu lösen. Zum einen überlappen bei den höheren Moden die Bänder einander. Dies erschwert die Identifikation der Moden bei der Messung. Zum anderen gelangt man schnell zu Frequenzen, die oberhalb der jeweiligen Cut-Off-Frequenz für den entsprechender Wellentyp im Strahlrohr liegen. Moden oberhalb Cut-Off können über mehrere Cavities miteinander koppeln und dabei neue Moden über viele Cavities ausbilden. Um die Gefährlichkeit dieser Moden für die Strahlqualität zu untersuchen, ist es erforderlich, die Übertragungscharakteristik (S-Parameter) der gesamten Cavity mit Strahlrohren zu bestimmen. An solchen Messungen wird bereits gearbeitet. Ein anderer Punkt, der näher zu untersuchen wäre, ist der Einfluß kleiner mechanischer Veränderungen auf die transversalen Shuntimpedanzen der Störmoden. Die TESLACavity ist mechanisch relativ instabil. Solche Veränderungen können daher schon durch die elekromagnetischen Kräfte der gepulsten Beschleuniger-Mode auftreten.
Im Rahmen des Schwerionenexperimentes NA49 am CERN-SPS (Super-Proton-Synchrotron) wurde für das TPC-Detektorsystem eine Meßapparatur zur hochpräzisen Bestimmung der Driftgeschwindigkeit von Elektronen im TPC-Gas entwickelt. Für die Driftgeschwindigkeitsmessung standen zwei im mechanischen Aufbau verschiedene Driftgeschwindigkeitsmonitore zur Verfügung, zum einen der am CERN entwickelte und gebaute CERN-Monitor und zum anderen der im Rahmen dieser Diplomarbeit an der GSI konstruierte und gebaute Goofie. Mit dem CERN-Monitor wurde der Einfluß der Temperatur und des Druckes auf die Messung untersucht und ein Korrekturverfahren beschrieben, das es erlaubt, die Driftgeschwindigkeit im Detektorsystem der TPCs unter den jeweiligen Experimentbedingungen zu bestimmen. Ferner wurden der Einfluß der Gasverunreinigungen Wasser und Sauerstoff und der Gasbeimischungen Methan und Kohlendioxid auf die Driftgeschwindigkeitsmessung diskutiert. Der statistische Fehler der Driftgeschwindigkeit wurde zu 0.08 % und der systematische Fehler zu 0.13 % bestimmt. Die Zusammensetzung des TPC Gases wurde während der dreißigtägigen Strahlzeit im November '94 anhand der relativen Änderung der Driftgeschwindigkeit überwacht. In die Gasüberwachung ging hier nur der statistische Fehler ein. Es konnten signifikante Gasmischungsänderungen beobachtet und die Änderung in den einzelnen Komponenten ermittelt werden. Die gewonnenen Ergebnisse stehen im Einklang mit den aus der Amplitudenmessung erhaltenen Daten. Die Bestimmung der absoluten Driftgeschwindigkeit beinhaltet den genannten statistischen und systematischen Fehler und weist damit einen Gesamtfehler von 0.15 % auf. Der Gesamtfehler der absoluten Driftgeschwindigkeit ermöglicht eine Bestimmung der absoluten Ortskoordinaten der Teilchentrajektorien in der VTPC bis auf 1000 µm und in der MTPC bis auf 1700 µm. Die Ergebnisse der Driftgeschwindigkeitsmessung wurden anhand der unabhängig aus denDaten des Lasersystems und der Time-of-Flight-Messungen gewonnenen Driftgeschwindigkeitsdaten diskutiert. Anhand von Transversalimpuls und Rapidiätsverteilungen in der VTPC wurde der Einfluß der Driftgeschwindigkeit auf die TPC-Auswertung gezeigt. Es wurden Vergleichsmessungen zwischen dem CERN-Monitor und Goofie durchgeführt, die gezeigt haben, daßbeide Systeme den gestellten Anforderungen entsprechen.