Refine
Year of publication
Document Type
- Diploma Thesis (114) (remove)
Language
- German (114) (remove)
Has Fulltext
- yes (114)
Is part of the Bibliography
- no (114) (remove)
Keywords
- Agentieller Realismus (1)
- Akteur-Netzwerk-Theorie (1)
- Algebra (1)
- Algebraische Gleichung (1)
- Analyse von Algorithmen (1)
- Atom (1)
- BMRT (1)
- BRDF (1)
- BTF (1)
- Barad, Karen (1)
Institute
- Informatik (46)
- Physik (30)
- Biowissenschaften (10)
- Geowissenschaften (8)
- Mathematik (7)
- Gesellschaftswissenschaften (3)
- Biochemie und Chemie (2)
- Erziehungswissenschaften (2)
- Psychologie (2)
- Wirtschaftswissenschaften (2)
Diese Diplomarbeit behandelt eine Fragestellung aus dem Gebiet der Fuchsschen Gruppen. Das Problem, das hier geklärt werden soll, entspringt einer im Jahre 2005 erschienenen Arbeit über Konjugatoren Fuchsscher Gruppen und quasiplatonische Riemannsche Flächen von Jürgen Wolfart und Ernesto Girondo [GW05]. Es ist dort ein alternativer geometrischer Weg gewählt worden, um es zu umgehen, und es soll nun hier mit den bereits 1970 bereitgestellten Methoden zur Fragestellung der Existenz von Untergruppen Fuchsscher Gruppen von David Singerman [SIN70] gelöst werden. Betrachtet man eine Dreiecksgruppe $Delta_{1}$ als Untergruppe einer Dreiecksgruppe $Delta_{2}$, so kann es vorkommen, dass diese Inklusion eine Verfeinerung durch eine dazwischenliegende Dreiecksgruppe $Delta$ gestattet. In den Fällen, in denen zu einer gegebenen Dreiecksgruppe $Delta_{2}$ voneinander verschiedene Untergruppen gleicher Signatur $Delta_{1},Delta_{1}Apostroph,...$ existieren, ist es nicht a priori klar, dass es eine dazwischenliegende Dreiecksgruppe $Delta,DeltaApostroph,...$ gleicher Signatur zu jeder dieser verschiedenen Untergruppen gibt. Das Ziel dieser Arbeit ist es nun, dies zu klären, d.h. zu zeigen, dass es für jedes Paar Dreiecksgruppen $Delta_{1}subseteqDelta_{2},Delta_{1}ApostrophsubseteqDelta_{2},...$ eine dazwischenliegende Dreiecksgruppe $Delta,DeltaApostroph,...$ gibt. Im ersten Teil dieser Arbeit wird eine grobe Einleitung in die Theorie der Diskontinuierlichen Gruppen gegeben, die sehr stark auf Fuchssche Gruppen abzielt und mit deren Verbindung zu Riemannschen Flächen abschließt. Sie orientiert sich sehr stark an einem Standardwerk über Diskontinuierliche Gruppen von Joseph Lehner [LEH64]. Im zweiten Teil dieser Arbeit widmen wir uns ganz den Untergruppen Fuchsscher Gruppen und dem von David Singerman [SIN70] bereitgestellten Apparat, der eine notwendige und hinreichende Bedingung hierfür aufzeigt. Wie David Singerman auch zeigt, lassen sich diese Methoden für Normalteiler und Dreiecksgruppen spezialisieren. Wir werden uns dem auch annehmen. Abschließend erarbeiten wir dann eine ausführliche Methode und somit auch einen Beweis zur Erlangung der kompletten Liste von Inklusionen Fuchsscher Dreiecksgruppen, wie sie sich in einer weiteren Arbeit David Singermans befindet [SIN72]. Dies geschieht mit Hilfe zweier Maple-Programme deren Quellcode und Ausgabe sich im Anhang bzw. vierten Teil dieser Arbeit zur Einsicht bendet. Im dritten Teil dieser Arbeit wird schließlich die oben erläuterte Fragestellung geklärt werden. Sie wird zunächst anhand vieler Beispiele und Erläuterungen verdeutlicht, und im Anschluss dessen eine mögliche Verallgemeinerung auf Fuchssche Gruppen diskutiert.
Julia Hansen hat zwischen März und Dezember 2006 Untersuchungen zu Funktion und Struktur der Okklusalflächen in der postcaninen Zahnreihe von Viverriden durchgeführt. Unter verschiedenen Ernährungsregimen bilden Höcker und Täler auf Zähnen, die sich im Gebiss gegenüber stehen, eine Funktionseinheit, mit der Schleichkatzen sowohl in der Lage sind, Früchte zu zerquetschen, als auch den Panzer von Insekten aufzuknacken. In ihrer Studie ist es Frau Hansen gelungen, konstruktive Unterschiede zwischen beiden Nutzungsweisen zu identifizieren. Diese Unterschiede hat sie an verschiedenen fossilen Einzelzähnen der Sammlung Koenigswald überprüft.
Die vorliegende Arbeit umfasst die Rekonstruktion der Körpermasse pleistozäner Cerviden in Java. Zunächst wird ein Rezentmodell erstellt, das den Zusammenhang zwischen Körpermasse und dem jeweiligen Messparameter aufzeigt. Die daraus resultierenden Regressionsgleichungen werden für die Rekonstruktion verwendet. Das fossile dentale und postcraniale Material wird vermessen und die Körpermasse für jedes einzelne Stück rekonstruiert. Die absoluten Werte werden in Körpermassenklassen eingeteilt, um einen Wert unabhängig vom physiologischen Zustand zu erhalten. Die Körpermassen werden, soweit möglich, getrennt nach Gattungen rekonstruiert. Ein Vergleich zeigt, dass es deutliche Unterschiede in der Körpermasse der Gattungen Axis und Muntiacus im Vergleich zu Cervus gibt. Bei der Einteilung in Klassen fällt auf, dass die Klassen 3a (10 kg bis 20 kg) und 3b (20 kg bis 50 kg) ausschließlich von Axis und zu einem kleinen Teil von Muntiacus besetzt werden. Die Klassen 4a und 4b ausschließlich von Cervus. Die einzige von Axis und Cervus besetzte Klasse ist 3c (50 kg bis 100 kg). Anhand dieser aus den Fossilien der Dubois Sammlung gewonnenen Erkenntnisse können nun die Fossilien der von Koenigswald Sammlung beurteilt werden, da diese nicht auf Gattungsniveau bestimmt sind. In beiden Sammlungen liegt der höchste Prozentsatz in der Klasse 3b. Daraus kann man schließen, dass sehr viele Tiere der Gattung Axis vorhanden sind. Die Gattung Cervus hingegen ist nur zu einem recht geringen Prozentsatz vertreten. Diese Verteilung spiegelt sich auch in der Untersuchung der Fundstellen wider. An nur drei der acht untersuchten Fundstellen wurden Tiere der Gattung Cervus gefunden. Ein Vergleich der Körpermassen ergibt keinen signifikanten Unterschied zwischen diesen. Innerhalb der Axis-Hirsche kann man einen Körpermassenunterschied erkennen, der jedoch nicht mit der geographischen Lage der Fundstellen begründet werden kann. Die Untersuchung der Fundstellen aufgrund ihrer Chronologie ergibt keinen signifikanten Unterschied zwischen den Faunenleveln Trinil H.K. und Kedung Brubus. Jedoch ist innerhalb der Faunenlevel eine deutliche Variationsbreite der Körpermasse zu erkennen, welche auf das an den einzelnen Fundstellen herrschende Habitat zurückgeführt werden kann. Die Zuordnung der bisher nicht datierten Fundstellen in die Faunenlevel ist alleine aufgrund der rekonstruierten Körpermassen nicht möglich, jedoch können erste Aussagen über das umgebende Habitat getroffen werden.
Die vorliegende Arbeit umfasst die Rekonstruktion der Körpermasse pleistozäner Rhinocerotidae in Europa und Südost-Asien , hier speziell der Insel Java. Methodisch wird dieses Ziel durch lineare Regressionen nach Janis (1990) verfolgt. Zunächst wird ein Rezentmodell erstellt, das es ermöglicht Körpermasse mit verschiedenen Zahnparametern in Zusammenhang zu bringen. Die aus dem Rezentmodell resultierenden Regressionsgleichungen für jeden Zahn werden dann für die Rekonstruktion fossiler Körpermassen verwendet. Das fossile Zahnmaterial wurde vermessen und die Körpermassen für alle Zahnparameter errechnet. Um einen Vergleich mit veröffentlichten Werten zu ermöglichen, wurde die Körpermasse gleichfalls nach Legendre (1986) ermittelt, welcher eine Formel zur Körpermassenrekonstruktion entwickelte, die heute allgemein Verwendung findet. Um die oftmals sehr großen Schwankungen in der Körpermasse, verursacht durch Ernährungs- und Gesundheitszustand eines Tieres abzufedern, sind die absoluten Werte in Körpermassenklassen eingeteilt. Die ermittelten Körpermassen wurden dann in verschiedenen Zusammenhängen betrachtet und, soweit möglich , Aussagen über Gründe für Veranderungen oder Unterschiede zwischen Messstrecken, Zeiträumen, Habitaten oder auch Spezies genannt.
Die vorliegende Studie dient als Basis einer neuen, zuverlässigen Populationsschätzung von Wildschweinen (Sus scrofa). Nach dem hier entwickelten Feldprotokoll soll Wildschweinkot in ausreichenden Mengen, ausreichend guter Qualität und nicht-invasiv gewonnen werden. Die daraus gewonnen Gewebeproben dienen anschließend als DNS-Quelle für individuelle Erkennung und Markierung der beprobten Tiere. Durch Kenntnis des zum Kot gehörigen Tieres lässt sich ein Fang-Wiederfang-Verfahren simulieren. Ein Sammelverfahren, gegliedert in zwei identische Blöcke zu je sechs Tagen, kombiniert aus Strip-Transekt-Sampling (Buckland 2001) und Adaptive-Sampling (Thompson 1991) führte hierbei zum besten Resultat von 0,48 Funden je abgesuchten Kilometer und 1,04 Funden je aufgewendeter Stunde. Die Untersuchung fand auf einem bewaldeten etwa 40 km2 großen Areal im Pfälzerwald, südlich von Kaiserslautern - südliches Rheinland-Pfalz – statt. Im Rahmen der Untersuchung wurden 1605 km abgesucht und vier verschiedene Transektmodelle getestet. Insgesamt wurden hierbei 268 Kothaufen erfasst, die zusätzlich auf ihre physischen Eigenschaften (Kotgröße, Härtegrad, Konsistenz, Insektenbefall), Lage im Gelände (Verteilung auf Laub-, Nadel- und Mischwälder, sowie auf Geländeneigung, Exposition und Höhenlage) und räumliche Verteilung im Untersuchungsgebiet analysiert wurden. Die Untersuchungen fanden zu verschieden Jahreszeiten (Sommer, Herbst und Winter) statt. Als geeigneter Zeitraum für eine solche Kotsammlung hat sich der Winter herausgestellt, aufgrund der längeren Zersetzungszeit des Kots und der durch den Laubfall bedingten, besseren Sichtverhältnisse. Bei ausreichender Stichprobenzahl des Kots hat es sich zu dem ergeben, dass Rückschlüsse auf die Habitatnutzung des Schwarzwilds anhand der Kotverteilung machbar sind. Eine Interpretation der Populationsstruktur anhand der Kotgröße ist in Ansätzen erkennbar. Ein Vergleich mit den gängigen Bestandesschätzverfahren durch Jagdstrecken und Kotzählungen bestätigt die Tauglichkeit des Feldprotokolls zur Beschaffung von Wildschweinkotmengen, die der Population entsprechen. In zwei von vier Versuchsansätzen konnten entsprechende Kotmengen erfasst werden.
Das Bumpmapping-Verfahren, eine Methode zur realistischen Darstellung rauer Oberflächen, existiert schon seit 30 Jahren, aber erst durch aktuelle Entwicklungen der Hardware lässt es sich in Echtzeitumgebungen einsetzen. Die aktuellen Verfahren ermöglichen viele darüber hinausgehende Effekte, jedoch haben sie auch mit Problemen zu kämpfen. Das Ziel dieser Diplomarbeit ist die Weiterentwicklung der Verfahren zu betrachten. In dieser Arbeit werden die Grenzen der aktuellen Bumpmapping-Algorithmen aufgezeigt und nach neuen Wegen geforscht. Das erste Verfahren erzeugt durch ein Multipassrendern fraktale Landschaften im Shader. Die darin verwendeten Methoden lassen sich für einen weiteren Algorithmus nutzen, mit dem feine Unebenheiten der Oberfläche an jedem Pixel ausgewertet werden. So können anisotrope Materialien wie gebürstete Metalle oder Mikropartikellacke simuliert werden. Den Abschluss bilden zwei neue Verfahren für prozedurale Shader. Die zu imitierende Oberfläche wird im Modell nachgebildet und per Raytracing für jeden Oberflächenpixel ausgewertet. Durch diese Methode werden viele Probleme texturbasierter Verfahren komplett umgangen.
Im Rahmen dieser Diplomarbeit wurde ein Konzept zur Extraktion von semantischen Informationen aus Wiki-Systemen entwickelt. Ausgangspunkt ist die Tatsache, dass in einem Wiki-System eine Reihe von Informationen in strukturierten, semi-strukturierten oder unstrukturierten Texten vorliegen, deren Semantik nicht immer auf den ersten Blick ersichtlich ist. Daher umfasste die Analyse zum einen, welche Informationen explizit und welche implizit vorhanden sind und zum anderen, welche Beziehungen sich aus den gefundenen Informationen ableiten lassen. Dabei handelt es sich beispielsweise um Beziehungen zwischen verschiedenen Seiten oder um Beziehungen zwischen Wörtern. Hierfür wurde eine Schablone definiert, die jede Information, die extrahiert werden kann, im Detail beschreibt. Dies beinhaltet sowohl die Semantik und die Datenquelle, aus der die Informationen extrahiert werden können, als auch eine Anleitung zur Extraktion und die abschließende Darstellung als XML-Element. Da aber nicht jede Information und deren Semantik sicher ist, wird zwischen sicheren und unsicheren Informationen unterschieden. Die Analyse hat allerdings ergeben, dass es eine Reihe an Informationen gibt, denen nicht automatisch eine Semantik zugewiesen werden kann. Außerdem wurden die Gemeinsamkeiten und Unterschiede der verschiedenen Wiki-Systeme analysiert, die für die Entwicklung des Konzeptes notwendig waren. Im Konzept ist die Gesamtarchitektur zur Extraktion von semantischen Informationen enthalten. Zwei Hauptsystemkomponenten waren hierfür notwendig: Wrapper und Mediator. Aufgrund der Unterschiede der Wiki-Systeme, wie beispielsweise die verwendete Programmiersprache, Datenbank oder Datei und Wiki-Syntax, wurde eine Wrapper eingesetzt. Der Mediator dient hingegen als Vermittler zwischen der jeweiligen Anwendung und dem Wiki-System. Durch die prototypische Implementation des Konzeptes ist die Durchführbarkeit bewiesen, bestimmte semantische Informationen zu extrahieren und diese in eine für die Weiterverarbeitung geeignete Form zu bringen. Das heißt, bestimmte Informationen können automatisch oder halb-automatisch in eine semantische Beziehung zueinander gesetzt werden.
Binärsuchbäume sind eine wichtige Datenstruktur, die in der Informatik vielfach Anwendung finden. Ihre Konstruktion ist deterministisch, zur Analyse ihrer Eigenschaften wird aber eine rein zufällige Eingabe zugrundegelegt. Viele Größe, wie z.B. Tiefe, Höhe und Pfadlänge werden seit Jahren viel untersucht. Als besonders interessant hat sich die Analyse des Profils, der Anzahl Knoten einer bestimmten Tiefe herausgestellt. In dieser Arbeit wird ein funktionaler Grenzwertsatz für das am Erwartungswert normierte Profil vorgestellt. Dazu werden unterschiedliche Zugänge gewählt, die hauptsächlich auf dem sogenannten Profil-Polynom beruhen. Zunächst wird ein klassischer Zugang mit Hilfe von Martingalen besprochen. Der diskrete Prozess wird dazu auf kanonische Weise in ein zeitstetiges Modell (Yule-Prozess) eingebettet. Ergebnisse im kontinuierlichen Prozess werden dann durch Stoppen auf den diskreten übertragen. Zudem wird ein neuerer Zugang vorgestellt, der auf der Kontraktionsmethode in Banachräumen unter Verwendung der Zolotarev-Metrik beruht.
Raytracing und Szenengraphen
(2006)
Raytracing ist ein bekanntes Verfahren zur Erzeugung fotorealistischer Bilder. Globale Beleuchtungseffekte einer 3D-Szene werden durch das Raytracing-Verfahren physikalisch korrekt dargestellt. Erst aktuelle Forschungsarbeiten ermöglichen es, das sehr rechenintensive Verfahren bei interaktiven Bildraten in Echtzeit zu berechnen. Komplexe 3D-Szenen, wie sie beispielsweise in 3D-Spielen oder Simulationen vorkommen, können durch einen Szenengraphen modelliert und animiert werden. Damit die Rendering-Ergebnisse eines Szenengraphen näher an einem realen Bild liegen, ist es erforderlich das Raytracing-Verfahren in einen Szenengraphen einzugliedern. In dieser Arbeit werden die Möglichkeiten zur Integration eines Echtzeit-Raytracers in eine Szenengraph-API untersucht. Ziel dieser Diplomarbeit ist die Darstellung dynamischer Szenen bei interaktiven Bildraten unter Verwendung des Raytracing-Verfahrens auf einem herkömmlichen PC. Zunächst müssen bestehende Open Source Szenengraph-APIs und aktuelle Echtzeit-Raytracer auf ihre Eignung zur Integration hin überprüft werden. Bei der Verarbeitung dynamischer Szenen spielt die verwendete Beschleunigungsdatenstruktur des Raytracers eine entscheidende Rolle. Da eine komplette Neuerstellung der Datenstruktur in jedem Bild zuviel Zeit in Anspruch nimmt, ist eine schnelle und kostengünstige Aktualisierung erforderlich. Die in [LAM01] vorgestellte Lösung, eine Hüllkörperhierarchie (BVH) als Beschleunigungsdatenstruktur zu verwenden, fügt sich sehr gut in das Konzept eines Szenengraphen ein. Dadurch wird eine einfache Aktualisierung ermöglicht. Um das Ziel dieser Arbeit zu erreichen, ist es notwendig, die Parallelisierbarkeit des Raytracing-Verfahrens auszunutzen. Purcell zeigt in [Pur04], dass Grafikprozessoren (GPUs) neben ihrer eigentlichen Aufgabe auch für allgemeine, parallele Berechnungen wie das Raytracing verwendet werden können. Die in bisherigen Arbeiten über GPU-basiertes Raytracing entwickelten Systeme können dynamische Szenen nicht bei interaktiven Bildraten darstellen. Aus diesem Grund wird in dieser Diplomarbeit ein neues System konzipiert und implementiert, das den in [TS05] entwickelten Raytracer erweitert und in die Open Source Szenengraph-API OGRE 3D integriert. Das implementierte System ermöglicht die Darstellung statischer und dynamischer Szenen unter Verwendung einer Consumer-Grafikkarte bei interaktiven Bildraten. Durch seine Erweiterbarkeit bildet das System das Grundgerüst für ein Realtime-High-Quality-Rendering-System.