Refine
Year of publication
- 2006 (15) (remove)
Document Type
- Diploma Thesis (15) (remove)
Has Fulltext
- yes (15) (remove)
Is part of the Bibliography
- no (15)
Keywords
- Analyse von Algorithmen (1)
- BMRT (1)
- BRDF (1)
- BTF (1)
- Beleuchtungsmodell (1)
- Binärsuchbaum (1)
- ELearning (1)
- Ehe (1)
- Evolution <Motiv> (1)
- Evolutionsbiologie (1)
Institute
- Informatik (8)
- Physik (2)
- Biowissenschaften (1)
- Erziehungswissenschaften (1)
- Informatik und Mathematik (1)
- Mathematik (1)
- Psychologie (1)
Im Rahmen dieser Diplomarbeit wurde ein Konzept zur Extraktion von semantischen Informationen aus Wiki-Systemen entwickelt. Ausgangspunkt ist die Tatsache, dass in einem Wiki-System eine Reihe von Informationen in strukturierten, semi-strukturierten oder unstrukturierten Texten vorliegen, deren Semantik nicht immer auf den ersten Blick ersichtlich ist. Daher umfasste die Analyse zum einen, welche Informationen explizit und welche implizit vorhanden sind und zum anderen, welche Beziehungen sich aus den gefundenen Informationen ableiten lassen. Dabei handelt es sich beispielsweise um Beziehungen zwischen verschiedenen Seiten oder um Beziehungen zwischen Wörtern. Hierfür wurde eine Schablone definiert, die jede Information, die extrahiert werden kann, im Detail beschreibt. Dies beinhaltet sowohl die Semantik und die Datenquelle, aus der die Informationen extrahiert werden können, als auch eine Anleitung zur Extraktion und die abschließende Darstellung als XML-Element. Da aber nicht jede Information und deren Semantik sicher ist, wird zwischen sicheren und unsicheren Informationen unterschieden. Die Analyse hat allerdings ergeben, dass es eine Reihe an Informationen gibt, denen nicht automatisch eine Semantik zugewiesen werden kann. Außerdem wurden die Gemeinsamkeiten und Unterschiede der verschiedenen Wiki-Systeme analysiert, die für die Entwicklung des Konzeptes notwendig waren. Im Konzept ist die Gesamtarchitektur zur Extraktion von semantischen Informationen enthalten. Zwei Hauptsystemkomponenten waren hierfür notwendig: Wrapper und Mediator. Aufgrund der Unterschiede der Wiki-Systeme, wie beispielsweise die verwendete Programmiersprache, Datenbank oder Datei und Wiki-Syntax, wurde eine Wrapper eingesetzt. Der Mediator dient hingegen als Vermittler zwischen der jeweiligen Anwendung und dem Wiki-System. Durch die prototypische Implementation des Konzeptes ist die Durchführbarkeit bewiesen, bestimmte semantische Informationen zu extrahieren und diese in eine für die Weiterverarbeitung geeignete Form zu bringen. Das heißt, bestimmte Informationen können automatisch oder halb-automatisch in eine semantische Beziehung zueinander gesetzt werden.
Binärsuchbäume sind eine wichtige Datenstruktur, die in der Informatik vielfach Anwendung finden. Ihre Konstruktion ist deterministisch, zur Analyse ihrer Eigenschaften wird aber eine rein zufällige Eingabe zugrundegelegt. Viele Größe, wie z.B. Tiefe, Höhe und Pfadlänge werden seit Jahren viel untersucht. Als besonders interessant hat sich die Analyse des Profils, der Anzahl Knoten einer bestimmten Tiefe herausgestellt. In dieser Arbeit wird ein funktionaler Grenzwertsatz für das am Erwartungswert normierte Profil vorgestellt. Dazu werden unterschiedliche Zugänge gewählt, die hauptsächlich auf dem sogenannten Profil-Polynom beruhen. Zunächst wird ein klassischer Zugang mit Hilfe von Martingalen besprochen. Der diskrete Prozess wird dazu auf kanonische Weise in ein zeitstetiges Modell (Yule-Prozess) eingebettet. Ergebnisse im kontinuierlichen Prozess werden dann durch Stoppen auf den diskreten übertragen. Zudem wird ein neuerer Zugang vorgestellt, der auf der Kontraktionsmethode in Banachräumen unter Verwendung der Zolotarev-Metrik beruht.
Ultrarelativistische Schwerionenkollisionen bieten die Möglichkeit stark wechselwirkende Materie unter hohe Energiedichten zu versetzen und auf diese Weise ihre Eigenschaften zu untersuchen. Werden in den Reaktionen ausreichend große Temperaturen und Baryondichten erreicht, so erwartet man einen Phasenübergang von der hadronischen zu der partonischen Phase, dem Quark Gluon-Plasma. Das QGP ist ein Materiezustand, in dem die Quarks nicht mehr wie in der gewöhnlichen Materie in Hadronen gebunden sind, sondern als quasi-freie Teilchen neben den Gluonen vorliegen. Eines der Hauptziele der Schwerionenphysik besteht darin, solch ein theoretisch vorhergesagtes QGP experimentell zu erzeugen und den damit verbundenen Phasenübergang zu untersuchen. Die Produktion von seltsamen Teilchen stellt dabei eine grundlegende Observable dar, durch die Rückschlüsse auf den Reaktionsverlauf einer Schwerionenkollision gezogen werden können. In dieser Arbeit wurde die Produktion der neutralen Kaonen in Pb+Pb Reaktionen bei verschiedenen Energien untersucht. Die neutralen Kaonen können über die schwach zerfallenden K0S gemessen werden und stellen gemeinsam mit den geladenen Kaonen die in einer Schwerionenkollision am häufgsten erzeugten seltsamen Teilchen dar. Die Messungen der Pb+Pb Reaktionen wurden mit Hilfe des NA49 Experiments am Europäischen Zentrum für Teilchenphysik, dem CERN, durchgeführt. Bei diesem Experiment handelt es sich um ein magnetisches Spektrometer, das sich durch seine große Akzeptanz für geladene Hadronen auszeichnet und den Anforderungen hoher Teilchenmultiplizitäten, die insbesondere in zentralen Pb+Pb Reaktionen bei der maximalen SPS-Strahlenergie von 158A GeV auftreten, genügt. Im Rahmen des NA49 Energie-Scan Programmes wurden Schwerionenkollisionen neben einer Strahlenergie von 158A GeV auch bei 20A, 30A, 40A und 80A GeV gemessen. Die Vielzahl an experimentellen Daten ermöglicht ein detailliertes Studium der Energieabhängigkeit der hadronischen Endzustandsverteilung hochrelativistischer Schwerionenkollisionen. Die in der vorliegenden Arbeit untersuchten neutralen Teilchen K0S können anhand ihrer charakteristischen V0-Zerfallstopologie, welche sich bei ihrem schwachen Zerfall in ein Pi+Pi- - Paar ergibt, identifiziert werden. Durch die gemessenen Zerfallsprodukte wurde in der Analyse die invariante Masse der V0-Teilchen in differentiellen Phasenraum-Bins rekonstruiert. Mittels geeigneter QualitÄatskriterien konnte dabei der Untergrund aus zufälligen Kombinationen von primären Spuren, falschen Kombinationen mit sekundären Spuren, sowie Lambda s und Antilambda s von der K0S-Analyse weitgehend unterdrückt werden. Um auf die dadurch verursachten Verluste wahrer K0S, genauso wie auf jene Verluste, die aufgrund der geometrischen Akzeptanz des Detektors und weiterer Ineffizienzen auftreten, korrigieren zu können, wurde das Embedding herangezogen. Mit Hilfe dieses Verfahrens konnten die Korrekturfaktoren für die verschiedenen Phasenraumbereiche ermittelt und auf die jeweiligen Rohsignale angewendet werden. Der systematische Fehler der korrigierten Teilchenspektren konnte durch eine Vielzahl systematischer Studien abgeschätzt werden. Dabei wurde ein grundlegender Fehler aufgedeckt, dessen Ursprung in der GSI Methode liegt. Da die GSI Methode bereits in der Datenrekonstruktion, auf der diese Analyse beruht, Verwendung findet und in Folge dessen eine Behebung dieses Fehlers im Rahmen dieser Diplomarbeit nicht möglich war, wurde für die Ermittlung der Endergebnisse stattdessen die Birmingham Methode verwendet. Es wurden die korrigierten transversalen Massenspektren sowie die Transversalimpuls-Spektren der K0S bei Midrapidity für die drei untersuchten Strahlenergien von 30A, 40A, und 158A GeV präsentiert. Des Weiteren wurden die Rapiditätsspektren für die verschiedenen Energien gezeigt, aus denen wiederum die entsprechende totale Multiplizität <K0S> ermittelt werden konnte. Deren Energieabhängigkeit sowie die des inversen Steigungsparameters T wurden diskutiert und mit den Ergebnissen der geladenen Kaonen verglichen. Die gemessenen K0S-Rapiditätsspektren und totalen Multiplizitäten lagen zwar bei allen untersuchten Energien systematisch niedriger als die entsprechend gemittelten der geladenen Kaonen, haben jedoch, genauso wie der inverse Steigungs- parameter T, eine qualitativ ähnliche Energieabhängigkeit aufgezeigt. Weiterhin wurde das K0 S-Rapiditätsspektrum für 158A GeV mit denen anderer K0S-Analysen verglichen. Dabei konnte eine ähnliche Abweichung wie im Vergleich zu den geladenen Kaonen festgestellt werden. Abschließend wurde noch die Energieabhängigkeit des Verhältnisses von Kaonen zu Pionen in dem Energiebereich von AGS bis hin zu RHIC untersucht. Dabei konnte eine ausgeprägte Struktur in der Energieabhängigkeit des <Ki>/Pi-Verhältnisses beobachtet werden, welche als ein Indiz für einen Phasenübergang zu einem Quark Gluon-Plasma angesehen werden kann.
Production of neutral strange hadrons with high transverse momentum in Pb+Pb collisions at 158 A GeV
(2006)
The motivation for studying ultrarelativistic heavy ion collisions is to search for signatures of a transition from hadronic matter to a partonic phase, the Quark-Gluon plasma. The bulk of the particles produced in these collisions possesses transverse momenta of pT < 2 GeV/c and evidence for the production of a Quark-Gluon plasma at SPS energies has been found in the properties of particles from this pT range. The rare particles seen in the higher pT domain can complete the picture of the produced matter. Examples for such high pT signatures include the properties of the baryon/meson ratios and the elliptic flow in the region 2 < pT < 4 GeV/c observed at RHIC. They can be explained by quark coalescence models. This phase space range can also be accessed for analysis at the highest SPS beam energy of 158 A GeV. A study of the pT dependence of baryon/meson ratios here can help to answer the question which hadron production mechanisms are relevant in this energy range. In the NA49 large acceptance hadron spectrometer, K0S and Lambda are identified via the V 0 topology of their decay into charged hadrons and the determination of their invariant mass. The reach in pT of this method is only limited by the statistics of the available data. An important part of the analysis presented in this thesis is to select potential V 0 candidates by adequate cuts. Optimisation for the high pT domain requires careful cuts in order to retain the signal there. A challenge implicated by this approach is the large combinatorial background left over by the loose cuts. A reliable signal extraction method was found that can deal with this possible difficulty and provide raw spectra.The fraction of particles that cannot be detected because of the geometrical acceptance of the detector and analysis inefficiencies was determined in simulations. Correction factors are extracted from this simulation for each phase space bin and applied to the raw spectra. The spectra corrected in this way reach pT = 3.6 GeV/c (for K0 S) and pT = 3.8 GeV/c (Lambda), respectively. The whole analysis method has been checked to be self-consistent and was compared to existing data on kaon and ... production, that is only available in the lower pT range. While the Lambda spectra agree with an earlier analysis [44], a disagreement remains between the results for K0 S presented here and charged kaon data published in [42]. The Lambda/K0 S ratio calculated from the corrected spectra qualitatively agrees with the results for the higher collision energy at RHIC [8]. A saturation of the ratio for pT >= 2 GeV/c clearly indicates that the hydrodynamical picture is not valid in the higher range any more. Unfortunately, no calculations from coalescence models are available for the SPS energy range so far.
Raytracing und Szenegraphen
(2006)
Raytracing ist ein bekanntes Verfahren zur Erzeugung fotorealistischer Bilder. Globale Beleuchtungseffekte einer 3D-Szene werden durch das Raytracing-Verfahren physikalisch korrekt dargestellt. Erst aktuelle Forschungsarbeiten erm¨oglichen es, das sehr rechenintensive Verfahren bei interaktiven Bildraten in Echtzeit zu berechnen.
Komplexe 3D-Szenen, wie sie beispielsweise in 3D-Spielen oder Simulationen vorkommen, können durch einen Szenengraphen modelliert und animiert werden. Damit die Rendering-Ergebnisse eines Szenengraphen n¨aher an einem realen Bild liegen, ist es erforderlich das Raytracing-Verfahren in einen Szenengraphen einzugliedern.
In dieser Arbeit werden die Möglichkeiten zur Integration eines Echtzeit-Raytracers in eine Szenengraph-API untersucht. Ziel dieser Diplomarbeit ist die Darstellung dynamischer Szenen bei interaktiven Bildraten unter Verwendung des Raytracing-Verfahrens auf einem herk¨ommlichen PC. Zun¨achst m¨ussen bestehende Open Source Szenengraph-APIs und aktuelle Echtzeit-Raytracer auf ihre Eignung zur Integration hin überprüft werden.
Bei der Verarbeitung dynamischer Szenen spielt die verwendete Beschleunigungsdatenstruktur des Raytracers eine entscheidende Rolle. Da eine komplette Neuerstellung der Datenstruktur in jedem Bild zuviel Zeit in Anspruch nimmt, ist eine schnelle und kostengünstige Aktualisierung erforderlich. Die in [LAM01] vorgestellte Lösung, eine Hüllkörperhierarchie (BVH) als Beschleunigungsdatenstruktur zu verwenden, fügt sich sehr gut in das Konzept eines Szenengraphen ein. Dadurch wird eine einfache Aktualisierung ermöglicht.
Um das Ziel dieser Arbeit zu erreichen, ist es notwendig, die Parallelisierbarkeit des Raytracing-Verfahrens auszunutzen. Purcell zeigt in [Pur04], dass Grafikprozessoren (GPUs) neben ihrer eigentlichen Aufgabe auch für allgemeine, parallele Berechnungen wie das Raytracing verwendet werden können.
Die in bisherigen Arbeiten über GPU-basiertes Raytracing entwickelten Systeme können dynamische Szenen nicht bei interaktiven Bildraten darstellen. Aus diesem Grund wird in dieser Diplomarbeit ein neues System konzipiert und implementiert, das den in [TS05] entwickelten Raytracer erweitert und in die Open Source Szenengraph-API OGRE 3D integriert.
Das implementierte System ermöglicht die Darstellung statischer und dynamischer Szenen unter Verwendung einer Consumer-Grafikkarte bei interaktiven Bildraten. Durch seine Erweiterbarkeit bildet das System das Grundger¨ust für ein Realtime-High-Quality-Rendering-System.
Raytracing und Szenengraphen
(2006)
Raytracing ist ein bekanntes Verfahren zur Erzeugung fotorealistischer Bilder. Globale Beleuchtungseffekte einer 3D-Szene werden durch das Raytracing-Verfahren physikalisch korrekt dargestellt. Erst aktuelle Forschungsarbeiten ermöglichen es, das sehr rechenintensive Verfahren bei interaktiven Bildraten in Echtzeit zu berechnen. Komplexe 3D-Szenen, wie sie beispielsweise in 3D-Spielen oder Simulationen vorkommen, können durch einen Szenengraphen modelliert und animiert werden. Damit die Rendering-Ergebnisse eines Szenengraphen näher an einem realen Bild liegen, ist es erforderlich das Raytracing-Verfahren in einen Szenengraphen einzugliedern. In dieser Arbeit werden die Möglichkeiten zur Integration eines Echtzeit-Raytracers in eine Szenengraph-API untersucht. Ziel dieser Diplomarbeit ist die Darstellung dynamischer Szenen bei interaktiven Bildraten unter Verwendung des Raytracing-Verfahrens auf einem herkömmlichen PC. Zunächst müssen bestehende Open Source Szenengraph-APIs und aktuelle Echtzeit-Raytracer auf ihre Eignung zur Integration hin überprüft werden. Bei der Verarbeitung dynamischer Szenen spielt die verwendete Beschleunigungsdatenstruktur des Raytracers eine entscheidende Rolle. Da eine komplette Neuerstellung der Datenstruktur in jedem Bild zuviel Zeit in Anspruch nimmt, ist eine schnelle und kostengünstige Aktualisierung erforderlich. Die in [LAM01] vorgestellte Lösung, eine Hüllkörperhierarchie (BVH) als Beschleunigungsdatenstruktur zu verwenden, fügt sich sehr gut in das Konzept eines Szenengraphen ein. Dadurch wird eine einfache Aktualisierung ermöglicht. Um das Ziel dieser Arbeit zu erreichen, ist es notwendig, die Parallelisierbarkeit des Raytracing-Verfahrens auszunutzen. Purcell zeigt in [Pur04], dass Grafikprozessoren (GPUs) neben ihrer eigentlichen Aufgabe auch für allgemeine, parallele Berechnungen wie das Raytracing verwendet werden können. Die in bisherigen Arbeiten über GPU-basiertes Raytracing entwickelten Systeme können dynamische Szenen nicht bei interaktiven Bildraten darstellen. Aus diesem Grund wird in dieser Diplomarbeit ein neues System konzipiert und implementiert, das den in [TS05] entwickelten Raytracer erweitert und in die Open Source Szenengraph-API OGRE 3D integriert. Das implementierte System ermöglicht die Darstellung statischer und dynamischer Szenen unter Verwendung einer Consumer-Grafikkarte bei interaktiven Bildraten. Durch seine Erweiterbarkeit bildet das System das Grundgerüst für ein Realtime-High-Quality-Rendering-System.
Diese Diplomarbeit beschäftigt sich sowohl mit der Akquisition, der Verwaltung und der winkelabhängigen, spektralen Reflexionsfunktion BRDF (Bidirectional Reflectance Distribution Function) und BTFs (Bidirection Texture Functions) von einigen ausgewählten realistischen Materialoberflächen bei fester Beleuchtung, als auch der Generierung der BTFs aus vorhandenen BRDFs und BTFs und der Anwendung der Beschreibung von Oberflächen mittels BRDFs und BTFs bei Erzeugungen von 3D-Szenen. Im Rahmen dieser Diplomarbeit werden Konzepte für eine effektivere Nutzung von BTFs in der photorealistischen Bilderzeugung entwickelt und prototypisch umgesetzt. Der Fokus liegt dabei auf einer vereinfachten Synthese von BTFs aus vorhandenen BRDF- und BTF-Daten, sowie in einer effizienten Nutzbarmachung dieser Informationen für Rendering-Prozesse.
Eine 1-1-Korrespondenz zwischen einer Klasse von Leftist-Bäumen und erweiterten t-nären Bäumen
(2006)
Leftist-Bäume sind eine Teilmenge der geordneten Bäume mit der Eigenschaft, daß der [kürzeste] Weg von jedem inneren Knoten zu einem Blatt des Teilbaums mit diesem Knoten als Wurzel immer über den am weitesten links stehenden Sohn dieses Knotens verläuft.
In der vorliegenden Arbeit wird eine 1-1-Korrespondenz zwischen erweiterten t-nären Bäumen und der Klasse der Leftist-Bäumen mit erlaubten Knotengraden 0, t, 2t-1, ... 1+t(t-1) präsentiert. Diese 1-1-Korrespondenz verallgemeinert ein Ergebnis von R. Kemp.
ALPHA ist die Architektur einer lokationssensitiven Puppe für hydropneumatische Animation. Es ist ein Animations-Eingabegerät. Die Puppe soll ein Objekt repräsentieren, welches animiert werden soll. Ihre Gliedmaßen, welche aus Knochen und Gelenken bestehen, sind beweglich. Sie wird an einen Computer angeschlossen und die gegenwärtige Stellung ihrer Gelenke kann mittels eines ebenfalls entwickelten Treibers von diesem Computer eingelesen werden. Des Weiteren wird erklärt was eine hydropneumatische Animation ist. Die Diplomarbeit weist die folgende Gliederung auf: • Motivation • Technische Grundlagen und State-Of-The-Art-Analyse • Anforderungsanalyse • Das eigene Konzept, die lokationssensitive Puppe (ALPHA) • Evaluation • Ausblick Die Motivation beschäftigt sich mit der Entwicklung der Filmanimation und einiger Errungenschaften in der Laufbahn der Animationstechnologischen Entwicklung. Die technischen Grundlagen beschränken sich auf die Funktionsweise von Messapparaturen, welche als Gelenkstellungssensoren fungieren können. Im Einzelnen sind das der optische Resolver, der Optoencoder und die Kombination von einem Drehpotentiometer und einem Analog/Digital-Wandler. Zur State-Of-The-Art-Analyse gehört die Erläuterung bereits entwickelter Stellungs- und Bewegungsmessender Technologien, wie das Stop-Motion-Verfahren, das Motion-Capturing, das Dinosaur-Input-Device und der Datenhandschuh. Eine Zusammenstellung der Defizite dieser Verfahren schließt dieses Kapitel ab. Die Analyse der Anforderungen an ein zu entwickelndes System ist im Kapitel Anforderungsanalyse zu finden. Zum eigenen Konzept gehört die gesamte Entwicklung einer lokationssensitiven Puppe. Die Puppe ist das Ebenbild des Skeletts eines zu animierendes Objekts. Sie besteht aus mehreren Gliedmaßen, welche an ihren Gelenken beweglich sind. Die Gelenkstellung wird von Potentiometern gemessen, dessen Signal ein A/D-Wandler empfängt. Die Umschaltung der einzelnen Messwerte erfolgt über Analog-Multiplexer. Die gesamte Steuerung der Bauteile und das Auslesen des A/D-Wandler werden durch einen Treiber über den Parallelport eines PCs gesteuert. Die Funktionsweise des Treibers und seine Implementierung werden ebenfalls in diesem Kapitel erläutert. Im Kapitel Evaluation befindet sich eine Bewertung des Konzepts und der Erfüllung der Anforderungsanalyse. Schließlich zeigt der Ausblick die Möglichkeiten der Anwendungen der Puppe und einen Blick in zukünftige Technologien.