Refine
Year of publication
Document Type
- Preprint (759)
- Article (402)
- Working Paper (119)
- Doctoral Thesis (93)
- Diploma Thesis (47)
- Conference Proceeding (41)
- Book (37)
- Bachelor Thesis (36)
- diplomthesis (28)
- Report (25)
Has Fulltext
- yes (1619)
Is part of the Bibliography
- no (1619)
Keywords
Institute
- Informatik (1619) (remove)
Heavy flavour decay muon production at forward rapidity in proton–proton collisions at √s=7 TeV
(2012)
The production of muons from heavy flavour decays is measured at forward rapidity in proton–proton collisions at √s=7 TeV collected with the ALICE experiment at the LHC. The analysis is carried out on a data sample corresponding to an integrated luminosity Lint=16.5 nb−1. The transverse momentum and rapidity differential production cross sections of muons from heavy flavour decays are measured in the rapidity range 2.5<y<4, over the transverse momentum range 2<pt<12 GeV/c. The results are compared to predictions based on perturbative QCD calculations.
Harmonic decomposition of two particle angular correlations in Pb–Pb collisions at √sNN=2.76 TeV
(2012)
Angular correlations between unidentified charged trigger (t) and associated (a) particles are measured by the ALICE experiment in Pb–Pb collisions at √sNN=2.76 TeV for transverse momenta 0.25<pTt,a<15 GeV/c, where pTt>pTa. The shapes of the pair correlation distributions are studied in a variety of collision centrality classes between 0 and 50% of the total hadronic cross section for particles in the pseudorapidity interval |η|<1.0. Distributions in relative azimuth Δϕ≡ϕt−ϕa are analyzed for |Δη|≡|ηt−ηa|>0.8, and are referred to as “long-range correlations”. Fourier components VnΔ≡〈cos(nΔϕ)〉 are extracted from the long-range azimuthal correlation functions. If particle pairs are correlated to one another through their individual correlation to a common symmetry plane, then the pair anisotropy VnΔ(pTt,pTa) is fully described in terms of single-particle anisotropies vn(pT) as VnΔ(pTt,pTa)=vn(pTt)vn(pTa). This expectation is tested for 1⩽n⩽5 by applying a global fit of all VnΔ(pTt,pTa) to obtain the best values vn{GF}(pT). It is found that for 2⩽n⩽5, the fit agrees well with data up to pTa∼3–4 GeV/c, with a trend of increasing deviation as pTt and pTa are increased or as collisions become more peripheral. This suggests that no pair correlation harmonic can be described over the full 0.25<pT<15 GeV/c range using a single vn(pT) curve; such a description is however approximately possible for 2⩽n⩽5 when pTa<4 GeV/c. For the n=1 harmonic, however, a single v1(pT) curve is not obtained even within the reduced range pTa<4 GeV/c.
Das Ziel dieser Arbeit war die Entwicklung einer haptischen 3D-Benutzungsoberfläche für die Virtual-Glove-Box. Eine „Glove Box“ ist ein Apparat, in welchem chemische Versuche in abgeschlossener Atmosphäre durchgeführt werden können. Die „Virtual Glove Box“ setzt dieses Konzept für Virtual Reality Anwendungen um. Die Oberflächenelemente waren als wiederverwendbare Komponenten auszuführen. Die Bedienung erfolgt unter Einsatz zweier virtueller Hände mit an den Händen getragenen Exoskeletten zur Vermittlung des haptischen Feedbacks. Es enstand EASY, ein System zur einfachen und individuellen Gestaltung von Benutzungsberflächenelementen. Diese können in ein bereitgestelltes Framework einfügt und ohne Wissen über die zugrundeliegende Hardware benutzt werden. Die Entwicklung konnte nicht abgeschlossen werden, da die zur Verfügung stehenden Hardware-Komponenten nicht in Betrieb zu nehmen waren.
At present, there are no quantitative, objective methods for diagnosing the Parkinson disease. Existing methods of quantitative analysis by myograms suffer by inaccuracy and patient strain; electronic tablet analysis is limited to the visible drawing, not including the writing forces and hand movements. In our paper we show how handwriting analysis can be obtained by a new electronic pen and new features of the recorded signals. This gives good results for diagnostics. Keywords: Parkinson diagnosis, electronic pen, automatic handwriting analysis
Die zunehmende Verbreitung des Internets als universelles Netzwerk zum Transport von Daten aller Art hat in den letzten zwei Dekaden dazu geführt, dass die anfallenden Datenmengen von traditionellen Datenbanksystemen kaum mehr effektiv zu verarbeiten sind. Das liegt zum einen darin, dass ein immer größerer Teil der Erdbevölkerung Zugang zum Internet hat, zum Beispiel via
Internet-fähigen Smartphones, und dessen Dienste nutzen möchte. Zudem tragen immer höhere verfügbare Bandbreiten für den Internetzugang dazu bei, dass die weltweit erzeugten Informationen mittlerweile exponentiell steigen.
Das führte zur Entwicklung und Implementierung von Technologien, um diese immensen Datenmengen wirksam verarbeiten zu können. Diese Technologien können unter dem Sammelbegriff "Big Data" zusammengefasst werden und beschreiben dabei Verfahren, um strukturierte und unstrukturierte Informationen im Tera- und Exabyte-Bereich sogar in Echtzeit verarbeiten zu können. Als Basis dienen dabei Datenbanksysteme, da sie ein bewährtes und praktisches Mittel sind, um Informationen zu strukturieren, zu organisieren, zu manipulieren und effektiv abrufen zu können. Wie bereits erwähnt, hat sich herausgestellt, dass traditionelle Datenbanksysteme, die auf dem relationalen Datenmodell basieren, nun mit Datenmengen konfrontiert sind, mit denen sie nicht sehr gut hinsichtlich der Performance und dem Energieverbrauch skalieren. Dieser Umstand führte zu der Entwicklung von spezialisierten Datenbanksystemen, die andere Daten- und Speichermodelle implementieren und für diese eine deutlich höhere Performance bieten.
Zusätzlich erfordern Datenbanksysteme im Umfeld von "Big Data" wesentlich größere Investitionen in die Anzahl von Servern, was dazu geführt hat, dass immer mehr große und sehr große Datenverarbeitungszentren entstanden sind. In der Zwischenzeit sind die Aufwendungen für Energie zum Betrieb und Kühlen dieser Zentren ein signifikanter Kostenfaktor geworden. Dementsprechend sind bereits Anstrengungen unternommen worden, das Themenfeld Energieeffizienz (die Relation zwischen Performance und Energieverbrauch) von Datenbanksystemen eingehender zu untersuchen.
Mittlerweile sind über 150 Datenbanksysteme bekannt, die ihre eigenen Stärken und Schwächen in Bezug auf Performance, Energieverbrauch und schlussendlich Energieeffizienz haben. Die Endanwender von Datenbanksystemen sehen sich nun in der schwierigen Situation, für einen gegebenen Anwendungsfall das geeigneteste Datenbanksystem in Hinblick auf die genannten Faktoren zu ermitteln. Der Grund dafür ist, dass kaum objektive und unabhängige Vergleichszahlen zur Entscheidungsfindung existieren und dass die Ermittlung von Vergleichszahlen zumeist über die Ausführung von Benchmarks auf verschiedensten technischen Plattformen geschieht. Es ist offensichtlich, dass die mehrfache Ausführung eines Benchmarks mit unterschiedlichsten Parametern (unter anderem die Datenmenge, andere Kombinationen aus technischen Komponenten, Betriebssystem) große Investitionen in Zeit und Technik erfordern, um möglichst breit gefächerte Vergleichszahlen zu erhalten.
Eine Möglichkeit ist es, die Ausführung eines Benchmarks zu simulieren anstatt ihn real zu absolvieren, um die Investitionen in Technik und vor allem Zeit zu minimieren. Diese Simulationen haben auch den Vorteil, dass zum Beispiel die Entwickler von Datenbanksystemen die Auswirkungen auf Performance und Energieeffizienz bei der Änderungen an der Architektur simulieren können anstatt sie durch langwierige Regressionstests evaluieren zu müssen. Damit solche Simulationen eine praktische Relevanz erlangen können, muss natürlich die Differenz zwischen den simulierten und den real gewonnenen Vergleichsmetriken möglichst klein sein. Zudem muss eine geeignete Simulation eine möglichst große Anzahl an Datenbanksystemen und technischen Komponenten nachstellen können.
Die vorliegende Dissertation zeigt, dass eine solche Simulation realistisch ist. Dafür wurde in einem ersten Schritt die Einflussaktoren auf Performance, Energieverbrauch und Energieeffizienz eines Datenbanksystems ermittelt und deren Wirkung anhand von experimentellen Ergebnissen bestimmt. Zusätzlich wurden auch geeignete Metriken und generelle Eigenschaften von Datenbanksystemen und von Benchmarks evaluiert. In einem zweiten Schritt wurde dann ein geeignetes Simulationsmodell erarbeitet und sukzessiv weiterentwickelt. Bei jedem Entwicklungsschritt wurden dann reale Experimente in Form von Benchmarkausführungen für verschiedenste Datenbanksysteme und technische Plattformen durchgeführt. Diese Experimente wurden mittels des Simulationsmodells nachvollzogen, um die Differenz zwischen realen und simulierten Benchmarkergebnissen zu berechnen. Die Ergebnisse des letzten Entwicklungsschrittes zeigen, dass diese Differenz unter acht Prozent liegt. Die vorliegende Dissertation zeigt auch, dass das Simulationsmodell nicht nur dazu geeignet ist, anerkannte Benchmarks zu simulieren, sondern sich im allgemeinen auch dafür eignet, ein Datenbanksystem und die technische Plattform, auf der es ausgeführt wird, generell zu simulieren. Das ermöglicht auch die Simulation anderer Anwendungsfälle, zum Beispiel Regressionstests.
Graph4Med: a web application and a graph database for visualizing and analyzing medical databases
(2022)
Background: Medical databases normally contain large amounts of data in a variety of forms. Although they grant significant insights into diagnosis and treatment, implementing data exploration into current medical databases is challenging since these are often based on a relational schema and cannot be used to easily extract information for cohort analysis and visualization. As a consequence, valuable information regarding cohort distribution or patient similarity may be missed. With the rapid advancement of biomedical technologies, new forms of data from methods such as Next Generation Sequencing (NGS) or chromosome microarray (array CGH) are constantly being generated; hence it can be expected that the amount and complexity of medical data will rise and bring relational database systems to a limit.
Description: We present Graph4Med, a web application that relies on a graph database obtained by transforming a relational database. Graph4Med provides a straightforward visualization and analysis of a selected patient cohort. Our use case is a database of pediatric Acute Lymphoblastic Leukemia (ALL). Along routine patients’ health records it also contains results of latest technologies such as NGS data. We developed a suitable graph data schema to convert the relational data into a graph data structure and store it in Neo4j. We used NeoDash to build a dashboard for querying and displaying patients’ cohort analysis. This way our tool (1) quickly displays the overview of patients’ cohort information such as distributions of gender, age, mutations (fusions), diagnosis; (2) provides mutation (fusion) based similarity search and display in a maneuverable graph; (3) generates an interactive graph of any selected patient and facilitates the identification of interesting patterns among patients.
Conclusion: We demonstrate the feasibility and advantages of a graph database for storing and querying medical databases. Our dashboard allows a fast and interactive analysis and visualization of complex medical data. It is especially useful for patients similarity search based on mutations (fusions), of which vast amounts of data have been generated by NGS in recent years. It can discover relationships and patterns in patients cohorts that are normally hard to grasp. Expanding Graph4Med to more medical databases will bring novel insights into diagnostic and research.
Viele auf allgemeinen Graphen NP-schwere Probleme (z.B. Hamiltonkreis, k-Färbbarkeit) sind auf Bäumen einfach effizient zu lösen. Baumzerlegungen, Zerlegungen von Graphen in kleine Teilgraphen entlang von Bäumen, erlauben, dies zu effizienten Algorithmen auf baumähnlichen Graphen zu verallgemeinern. Die Baumähnlichkeit wird dabei durch die Baumweite abgebildet: Je kleiner die Baumweite, desto baumähnlicher der Graph.
Die Bedeutung der Baumzerlegungen wurde seit ihrer Verwendung in einer Reihe von 23 Veröffentlichungen von Robertson und Seymour zur Graphminorentheorie allgemein erkannt. Das Hauptresultat der Reihe war der Beweis des Graphminorensatzes, der aussagt, dass die Minorenrelation auf den Graphen Wohlquasiordnung ist. Baumzerlegungen wurden in verschiedenen Bereichen angewandt. So bei probabilistischen Netzen, in der Biologie, bei kombinatorischen Problemen und im Übersetzerbau. Außerdem gibt es algorithmische Metatheoreme, die zeigen, dass sie für weite Problemklassen nützlich sind. Baumzerlegungen sind in dieser Arbeit von zentraler Bedeutung. Die mittels Baumzerlegungen erzielten Erfolge auf baumähnlichen Graphen motivieren Versuche, diese auf größere Graphklassen zu verallgemeinern. Ein erfolgreicher Ansatz beruht auf irrelevanten Knoten und reduziert damit die Probleme auf der größeren Graphklasse auf Probleme auf einer Graphklasse kleiner Baumweite: Wenn der Eingabegraph zu einem Problem kleine Baumweite hat, wird das Problem mittels Baumzerlegungen gelöst. Andernfalls gibt es einen irrelevanten Knoten, so dass das Problem genau dann eine Lösung auf dem ursprünglichen Graphen hat, wenn es auch im Graphen ohne diesen irrelevanten Knoten eine Lösung hat. Es werden solange irrelevante Knoten gefunden und entfernt, bis ein Graph kleiner Baumweite verbleibt.
Ein wichtiges Hilfsmittel zum Finden irrelevanter Knoten ist der Gitterminorensatz: Nach diesem Satz enthalten Graphen großer Baumweite auch große Gitter als Minoren. Die Gitter Baumweite-Dualität ist auch in der Bidimensionalitätstheorie, einem weiteren erfolgreichen Ansatz, um auf größeren Graphklassen, als nur denen kleiner Baumweite, Probleme effizient zu lösen, von zentraler Bedeutung.
In dieser Arbeit definieren wir ein Maß für den Grad der Mehrdeutigkeit (degree of ambiguity da) kontextfreier Grammatiken und Sprachen als die Anzahl der Ableitungsbäume in Abhängigkeit von der Länge n eines Wortes. Wir zeigen, dass es weder Sprachen noch zyklenfreie Grammatiken gibt, deren Mehrdeutigkeitsgrad stärker als 2£(n) wächst (wie z B. £(nn)). Aus [10] ist es außerdem bekannt, dass es keine Grammatiken (und somit keine Sprachen) gibt, deren Mehrdeutigkeit stärker als polynomiell, aber schwächer als exponentiell wächst (wie z. B. £(2pn). Deshalb untersuchen wir in dieser Arbeit hauptsächlich konstant mehrdeutige, polynomiell mehrdeutige und exponentiell mehrdeutige Grammatiken und Sprachen. Für jede feste, ganze Zahl k 2 N hat Maurer [8] die Existenz einer k-deutigen kontextfreien Sprache nachgewiesen. Durch Verwendung einer einfacheren Sprache, nämlich der Sprache Lk := fambm1 1 bm2 2 : : : bmk k jm;m1;m2; : : : ;mk ¸ 1; 9 i mit m = mig, und mit Hilfe von Ogden's Lemma1 erhalten wir einen wesentlich kürzeren Beweis. Ferner zeigen wir die Existenz exponentiell mehrdeutiger Sprachen. Wir zeigen, dass die Sprache L¤ { wobei L = faibicj ji; j ¸ 1g [ faibjciji; j ¸ 1g-exponentiell mehrdeutig ist, indem wir beweisen, dass das Wort (ah+h!bh+h!ch+h!)k mindestens 2k Ableitungen in jeder Grammatik G für L¤ hat, wobei k aus N ist und h die Konstante aus Ogden's Lemma für G ist. Für beliebig kleines c aus R+ entwerfen wir eine Grammatik Gc für L¤, so dass daGc · 2cn gilt. Somit gilt, dass die Sprache L¤ zwar exponentiell mehrdeutig ist, aber es gibt kein festes c aus R+ , so dass L¤ 2cn-deutig ist. Wir geben polynomiell mehrdeutige Grammatiken an und zeigen die Existenz von polynomiell mehrdeutigen Sprachen, indem wir mit Hilfe von Ogden's Lemma beweisen, dass die Anzahl der Ableitungsbäume eines Wortes der Länge n in jeder Grammatik für die Sprache Lk in der Größenordnung von (nk) liegt, wobei k eine Konstante aus N ist, und L := fambm1cbm2c : : : bmpcjp 2 N; m;m1;m2; : : : ;mp 2 N; 9i 2 f1; 2; : : : ; pg mit m = mig gilt. Durch Angabe einer O(nk){deutigen Grammatik zeigen wir schließlich, dass Lk polynomiell vom Grad k mehrdeutig ist. Außerdem entwerfen wir für jedes feste d aus R+ eine Grammatik Gd für L, so dass daGd · dn dn für genügend großes n ist.
The global polarization of the Λ and Λ¯¯¯¯ hyperons is measured for Pb-Pb collisions at sNN−−−√ = 2.76 and 5.02 TeV recorded with the ALICE at the LHC. The results are reported differentially as a function of collision centrality and hyperon's transverse momentum (pT) for the range of centrality 5-50%, 0.5<pT<5 GeV/c, and rapidity |y|<0.5. The hyperon global polarization averaged for Pb-Pb collisions at sNN−−−√ = 2.76 and 5.02 TeV is found to be consistent with zero, ⟨PH⟩ (%) ≈ 0.01 ± 0.06 (stat.) ± 0.03 (syst.) in the collision centrality range 15-50%, where the largest signal is expected. The results are compatible with expectations based on an extrapolation from measurements at lower collision energies at RHIC, hydrodynamical model calculations, and empirical estimates based on collision energy dependence of directed flow, all of which predict the global polarization values at LHC energies of the order of 0.01%.
The global polarization of the Λ and Λ¯¯¯¯ hyperons is measured for Pb-Pb collisions at sNN−−−√ = 2.76 and 5.02 TeV recorded with the ALICE at the LHC. The results are reported differentially as a function of collision centrality and hyperon's transverse momentum (pT) for the range of centrality 5-50%, 0.5<pT<5 GeV/c, and rapidity |y|<0.5. The hyperon global polarization averaged for Pb-Pb collisions at sNN−−−√ = 2.76 and 5.02 TeV is found to be consistent with zero, ⟨PH⟩ (%) ≈ - 0.01 ± 0.05 (stat.) ± 0.03 (syst.) in the collision centrality range 15-50%, where the largest signal is expected. The results are compatible with expectations based on an extrapolation from measurements at lower collision energies at RHIC, hydrodynamical model calculations, and empirical estimates based on collision energy dependence of directed flow, all of which predict the global polarization values at LHC energies of the order of 0.01%.
The global polarization of the Λ and Λ¯¯¯¯ hyperons is measured for Pb-Pb collisions at sNN−−−√ = 2.76 and 5.02 TeV recorded with the ALICE at the LHC. The results are reported differentially as a function of collision centrality and hyperon's transverse momentum (pT) for the range of centrality 5-50%, 0.5<pT<5 GeV/c, and rapidity |y|<0.5. The hyperon global polarization averaged for Pb-Pb collisions at sNN−−−√ = 2.76 and 5.02 TeV is found to be consistent with zero, ⟨PH⟩ (%) ≈ 0.01 ± 0.06 (stat.) ± 0.03 (syst.) in the collision centrality range 15-50%, where the largest signal is expected. The results are compatible with expectations based on an extrapolation from measurements at lower collision energies at RHIC, hydrodynamical model calculations, and empirical estimates based on collision energy dependence of directed flow, all of which predict the global polarization values at LHC energies of the order of 0.01%.
The global polarization of the Λ and Λ¯¯¯¯ hyperons is measured for Pb-Pb collisions at sNN−−−√ = 2.76 and 5.02 TeV recorded with the ALICE at the LHC. The results are reported differentially as a function of collision centrality and hyperon's transverse momentum (pT) for the range of centrality 5-50%, 0.5<pT<5 GeV/c, and rapidity |y|<0.5. The hyperon global polarization averaged for Pb-Pb collisions at sNN−−−√ = 2.76 and 5.02 TeV is found to be consistent with zero, ⟨PH⟩ (%) ≈ - 0.01 ± 0.05 (stat.) ± 0.03 (syst.) in the collision centrality range 15-50%, where the largest signal is expected. The results are compatible with expectations based on an extrapolation from measurements at lower collision energies at RHIC, hydrodynamical model calculations, and empirical estimates based on collision energy dependence of directed flow, all of which predict the global polarization values at LHC energies of the order of 0.01%.
Experimental results are presented on event-by-event net-proton fluctuation measurements in Pb–Pb collisions at √sNN = 2.76 TeV, recorded by the ALICE detector at the CERN LHC. These measurements have as their ultimate goal an experimental test of Lattice QCD (LQCD) predictions on second and higher order cumulants of net-baryon distributions to search for critical behavior near the QCD phase boundary. Before confronting them with LQCD predictions, account has to be taken of correlations stemming from baryon number conservation as well as fluctuations of participating nucleons. Both effects influence the experimental measurements and are usually not considered in theoretical calculations. For the first time, it is shown that event-by-event baryon number conservation leads to subtle long-range correlations arising from very early interactions in the collisions.
Experimental results are presented on event-by-event net-proton fluctuation measurements in Pb-Pb collisions at sNN−−−√ = 2.76 TeV, recorded by the ALICE detector at the CERN LHC. These measurements have as their ultimate goal an experimental test of Lattice QCD (LQCD) predictions on second and higher order cumulants of net-baryon distributions to search for critical behavior near the QCD phase boundary. Before confronting them with LQCD predictions, account has to be taken of correlations stemming from baryon number conservation as well as fluctuations of participating nucleons. Both effects influence the experimental measurements and are usually not considered in theoretical calculations. For the first time, it is shown that event-by-event baryon number conservation leads to subtle long-range correlations arising from very early interactions in the collisions.
Experimental results are presented on event-by-event net-proton fluctuation measurements in Pb-Pb collisions at sNN−−−√ = 2.76 TeV, recorded by the ALICE detector at the CERN LHC. These measurements have as their ultimate goal an experimental test of Lattice QCD (LQCD) predictions on second and higher order cumulants of net-baryon distributions to search for critical behavior near the QCD phase boundary. Before confronting them with LQCD predictions, account has to be taken of correlations stemming from baryon number conservation as well as fluctuations of participating nucleons. Both effects influence the experimental measurements and are usually not considered in theoretical calculations. For the first time, it is shown that event-by-event baryon number conservation leads to subtle long-range correlations arising from very early interactions in the collisions.
Gegenstand der Arbeit ist ein Gleichheitskalkül für den Kern einer nicht-strikten funktionalen Programmiersprache. Funktionale Programmiersprachen unterstützen bestens die Prinzipien Abstraktion, Einkapselung, Hierarchiesierung und Modularisierung, die gemeinhin als Grundelemente des Software-Engineering betrachtet werden. Darüber hinaus bieten funktionale Programmiersprachen aufgrund ihrer Entwicklung aus dem Lambda-Kalkül eine große Nähe zu mathematischen Modellen. Daher besitzen sie im Bereich der Programmverifikation ausgeprägte Vorteile gegenüber imperativen oder objekt-orientierten Programmiersprachen. In der Arbeit wird nun ein Gleichheitsbegriff für Ausdrücke in funktionalen Programmiersprachen entwickelt und dessen Praktikabilität durch die Implementierung eines Beweisers untermauert. Dieser Gleichheitsbegriff ist die kontextuelle Gleichheit, die Ausdrücke aufgrund ihres Terminierungsverhaltens als Unterprogramme in allen möglichen Kontexten einordnet. Kontextuelle Gleichheit wird in Kapitel 2 vorgestellt, nachdem der klassische und der sogenannte "lazy" Lambda-Kalkül eingeführt wurden. Kapitel 3 enthält einen Überblick über die funktionale Programmierung, da auch die Implementierung des o.g. Beweisers in einer funktionalen Programmiersprache, nämlich Haskell, durchgeführt wird. In Kapitel 4 wird die funktionale Kernsprache, die Gegenstand der Untersuchung sein wird, beschrieben. Sie enthält alle wesentlichen Elemente wie z.B. Funktionsdefinition und -anwendung sowie Datentypen. Im selben Kapitel wird auch der Gleichheitsbegriff für diese Kernsprache definiert. Kapitel 5 schließlich entwickelt auf Basis der zuvor erfolgten Definitionen einen Kalkül für den Gleichheitsbeweis. Außerdem wird in diesem Kapitel auch die Umsetzung dieses Gleichheitskalküls präsentiert. Aus der Dissertation von Marko Schütz werden hierbei Erkenntnisse über die Kontextanalyse verwendet, um erfüllende Belegungen von freien Variablen zu berechnen. Die Arbeit schließt mit Beispielanalysen und Meßwerten sowie einer Diskussion der Ergebnisse und möglicher Erweiterungen.
Die Anfänge der Gittertheorie reichen in das letzte Jahrhundert, wobei die wohl bekanntesten Ergebnisse auf Gauß, Hermite und Minkowski zurückgehen. Die Arbeiten sind jedoch zumeist in der Schreibweise der quadratischen Formen verfaßt, erst in den letzten Jahrzehnten hat sich die von uns verwendete Gitterschreibweise durchgesetzt. Diese ist zum einen geometrisch anschaulicher, zum anderen wurden in den letzten Jahren für diese Schreibweise effiziente Algorithmen entwickelt, so daß Probleme der Gittertheorie mittels Computer gelöst werden können. Ein wichtiges Problem ist, in einem Gitter einen kürzesten nicht verschwindenden Vektor zu bestimmen. Den Grundstein für diese algorithmische Entwicklung legten A.K. Lenstra, H.W. Lenstra Jr. und L. Lovasz mit ihrer Arbeit. In dieser führten sie einen Reduktionsbegriff ein, der durch einen Polynomialzeitalgorithmus erreicht werden kann. Ein weiterer Reduktionsbegriff, die Blockreduktion, geht auf Schnorr zurück. Euchner hat im Rahmen seiner Diplomarbeit effiziente Algorithmen für diese beiden Reduktionsbegriffe auf Workstations implementiert und auch in Dimensionen > 100 erfolgreich getestet. Die Verbesserungen von Schnittechniken des in der Blockreduktion verwendeten Aufzählungsverfahrens und die Einführung einer geschnittenen Aufzählung über die gesamte Gitterbasis hat Hörner in seiner Diplomarbeit beschrieben. Ziel der folgenden Arbeit war es nun, diese bereits auf sequentiellen Computern implementierten Algorithmen zu modifizieren, um auf parallelen Rechnern, speziell Vektorrechnern, einen möglichst hohen Geschwindigkeitsgewinn zu erzielen. Wie in den seriellen Algorithmen werden die Basisvektoren stets in exakter Darstellung mitgeführt, so daß das Endergebnis einer Berechnung nicht durch Rundungsfehler verfälscht wird.
Die vorliegende Bachelorarbeit untersucht die Möglichkeiten der mobilen Produktion und Verwaltung von Web- und Multimedia-Inhalten, welche mit geografischen Koordinaten verknüpft sind.
Durch die stetig wachsende Verbreitung mobiler Geräte wie Smartphones, Tablets oder Netbooks und der damit in Anspruch genommenen Verfügbarkeit von mobilen Internetzugängen in Form von WLAN, GPRS, UMTS oder LTE, wird die gemeinsame Erstellung und Verwaltung von geolokalisierten Inhalten durch Teilnehmer einer Interessengruppe ermöglicht.
Besonders Inhalte deren Standort relevant ist, können von automatisierter Lokalisierung profitieren. Durch Ortungsmechanismen können Daten bei ihrer Erstellung oder Bearbeitung automatisch mit dem Standort des Geräts versehen werden. So lassen sich zum einen geografische Daten sammeln und zum anderen Inhalte auf unkomplizierte Art und Weise mit dem Standort des Autors zum Zeitpunkt ihrer Erstellung verknüpfen.
Darüber hinaus können Anwender abhängig von ihrem Aufenthaltsort Informationen über ihre Umgebung abrufen, ohne zuvor in einer Kartenansicht zu ihrer aktuellen Position navigieren zu müssen.
Die vorliegende Arbeit behandelt sowohl das Erhalten als auch das Erzeugen multimedialer Inhalte in Abhängigkeit von ihren geografischen Koordinaten. Die technische Realisierung dieses Konzepts findet mit Hilfe der frei verfügbaren MediaWiki-Software[1] als Content-Management-System sowie einer, für mobile Geräte optimierten Webseite als Frontend statt.
Der Umfang der Arbeit umfasst neben dem Entwurf eines Konzepts und der ausführlichen Beschreibung einer möglichen Implementierung eine Einführung in die Grundlagen der verwendeten Komponenten. Zuletzt sollen ein Fazit und ein Ausblick Konzept und Realisierung kritisch betrachten, um einen Einblick in vorhandene Potenziale der Lösung zu bieten.