Refine
Year of publication
Document Type
- Diploma Thesis (114) (remove)
Has Fulltext
- yes (114)
Is part of the Bibliography
- no (114)
Keywords
- Algebra (1)
- Algebraische Gleichung (1)
- Analyse von Algorithmen (1)
- BMRT (1)
- BRDF (1)
- BTF (1)
- Begabtenförderung (1)
- Beleuchtungsmodell (1)
- Binärsuchbaum (1)
- Computer (1)
Institute
- Informatik (46)
- Physik (29)
- Biowissenschaften (10)
- Mathematik (8)
- Geowissenschaften (7)
- Wirtschaftswissenschaften (3)
- Biochemie und Chemie (2)
- Erziehungswissenschaften (2)
- Gesellschaftswissenschaften (2)
- Psychologie (2)
Ulrike Anders hat zwischen Januar und September 2005 Zähne und Gebiß rezenter Schleichkatzen (Viverridae) untersucht und Parameter identifiziert, anhand derer sich Nahrungspräferenzen zuordnen lassen. Viverriden gelten als basale Carnivoren mit omnivorem Nahrungsspektrum. Da die für echte Katzen so typische Brechschere und die Reduktion des Gebisses nur wenig ausgeprägt ist, gilt ihr Gebiss als unspezialisiert. Dennoch besitzen Viverriden Nahrungspräferenzen, die sich in der Umgestaltung ihres Gebisses, auch in einzelnen Zahnpositionen niederschlägt. Diese Veränderungen wurden metrisch charakterisiert.
Diese Diplomarbeit behandelt eine Fragestellung aus dem Gebiet der Fuchsschen Gruppen. Das Problem, das hier geklärt werden soll, entspringt einer im Jahre 2005 erschienenen Arbeit über Konjugatoren Fuchsscher Gruppen und quasiplatonische Riemannsche Flächen von Jürgen Wolfart und Ernesto Girondo [GW05]. Es ist dort ein alternativer geometrischer Weg gewählt worden, um es zu umgehen, und es soll nun hier mit den bereits 1970 bereitgestellten Methoden zur Fragestellung der Existenz von Untergruppen Fuchsscher Gruppen von David Singerman [SIN70] gelöst werden. Betrachtet man eine Dreiecksgruppe $Delta_{1}$ als Untergruppe einer Dreiecksgruppe $Delta_{2}$, so kann es vorkommen, dass diese Inklusion eine Verfeinerung durch eine dazwischenliegende Dreiecksgruppe $Delta$ gestattet. In den Fällen, in denen zu einer gegebenen Dreiecksgruppe $Delta_{2}$ voneinander verschiedene Untergruppen gleicher Signatur $Delta_{1},Delta_{1}Apostroph,...$ existieren, ist es nicht a priori klar, dass es eine dazwischenliegende Dreiecksgruppe $Delta,DeltaApostroph,...$ gleicher Signatur zu jeder dieser verschiedenen Untergruppen gibt. Das Ziel dieser Arbeit ist es nun, dies zu klären, d.h. zu zeigen, dass es für jedes Paar Dreiecksgruppen $Delta_{1}subseteqDelta_{2},Delta_{1}ApostrophsubseteqDelta_{2},...$ eine dazwischenliegende Dreiecksgruppe $Delta,DeltaApostroph,...$ gibt. Im ersten Teil dieser Arbeit wird eine grobe Einleitung in die Theorie der Diskontinuierlichen Gruppen gegeben, die sehr stark auf Fuchssche Gruppen abzielt und mit deren Verbindung zu Riemannschen Flächen abschließt. Sie orientiert sich sehr stark an einem Standardwerk über Diskontinuierliche Gruppen von Joseph Lehner [LEH64]. Im zweiten Teil dieser Arbeit widmen wir uns ganz den Untergruppen Fuchsscher Gruppen und dem von David Singerman [SIN70] bereitgestellten Apparat, der eine notwendige und hinreichende Bedingung hierfür aufzeigt. Wie David Singerman auch zeigt, lassen sich diese Methoden für Normalteiler und Dreiecksgruppen spezialisieren. Wir werden uns dem auch annehmen. Abschließend erarbeiten wir dann eine ausführliche Methode und somit auch einen Beweis zur Erlangung der kompletten Liste von Inklusionen Fuchsscher Dreiecksgruppen, wie sie sich in einer weiteren Arbeit David Singermans befindet [SIN72]. Dies geschieht mit Hilfe zweier Maple-Programme deren Quellcode und Ausgabe sich im Anhang bzw. vierten Teil dieser Arbeit zur Einsicht bendet. Im dritten Teil dieser Arbeit wird schließlich die oben erläuterte Fragestellung geklärt werden. Sie wird zunächst anhand vieler Beispiele und Erläuterungen verdeutlicht, und im Anschluss dessen eine mögliche Verallgemeinerung auf Fuchssche Gruppen diskutiert.
In den modernen Schwerionenexperimenten möchte man den Zustand der Materie unter extremen Bedingungen, wie sie in der frühen Phase unseres Kosmos herrschten, physikalisch untersuchen. Bei hoher Temperatur und Materiedichte wird ein Zustand postuliert, in dem Quarks, die unter den heute in der Natur vorkommenden Bedingungen auf Grund des Confinements in Hadronen gebunden sind, als quasi freie Teilchen existieren können. Eine spezielle Observable, die man dabei betrachtet, ist die Seltsamkeit. Aus früheren Messungen weiss man, dass die relative Häufigkeit einfach seltsamer Teilchen bei Kern-Kern-Reaktion gegenüber Proton-Proton-Reaktionen erhöht ist und eine andere Energieabhängigkeit zeigt. Zudem ist die Seltsamkeitsproduktion auch abhängig von der Systemgröße. Das kanonische, statistische Modell nach Redlich und Tounsi [7] sagt einen zunächst steilen Anstieg der Produktion von seltsamen Teilchen mit wachsender Systemgröße voraus, der aber bei großen Systemen immer flacher wird. Diese Diplomarbeit beschäftigt sich mit der Xi- und Xi+-Produktion in Blei-Blei-Stößen bei 40 A GeV. Bei dieser Analyse wird die Xi -Multiplizität in Abhängigkeit von der Kollisionszentralität und damit der Systemgröße untersucht. Zusätzlich wird die Xi- -Produktion in zentralen Blei-Blei-Stößen bei 40 A GeV mit Messungen bei anderen Energien verglichen und damit ihre Energieabhängigkeit der Xi- -Produktion untersucht. Die verwendeten Daten wurden während einer Strahlzeit im Herbst 1999 vom Experiment NA49 am SPS am CERN aufgenommen. Es wurden zwei Datensätze mit 7%igem Anteil am totalen Wirkungsquerschnitt und zwei Datensätze mit minimaler Einschränkung (minimum bias) durch den Trigger verwendet. Für die Analyse wurden aus diesen Daten 387.616 minimum bias und 577.605 zentrale Ereignisse ausgewählt. Die minimum bias Daten werden in verschiedene Zentralitätsklassen eingeteilt. Die Xi- (Xi+)-Hyperonen werden von NA49 nicht direkt detektiert. Stattdessen werden Kandidaten aus den Tochterteilchen (Lambda (Antilambda) und Pi - (Pi+)) des schwachen Zerfalls rekonstruiert. Die Häufigkeit der Hyperonen wird dann mit Hilfe statistischer Methoden extrahiert. Diese Methode liefert nicht nur die gewünschten Kandidaten sondern auch einen großen kombinatorischen Untergrund, den man durch geeignete, geometrische Einschränkungen reduzieren kann. Dazu wird eine Signifikanzstudie für die entsprechenden geometrischen Größen durchgeführt und auf diese Weise die besten Einschränkungsbedinungen gefunden. Da das NA49-Experiment auf Grund seiner Geometrie nicht den kompletten Phasenraum erfassen kann und die Effizienz, mit der Teilchen detektiert werden, begrenzt muss auf diese Effekte korrigiert werden. Um diese Korrektur zu bestimmen führt eine Simulation durch. Man simuliert Xi- -Hyperonen und überprüft, wie viele mit gleichen Verfahren, das man zur Datenbestimmung verwendet, in jedem Phasenraumbereich wiedergefunden werden können. Unter Verwendung dieser Korrektur erhält man die Transversalimpulsspektren bei mittlerer Rapidität für Xi- in vier verschiedenen Zentralitätsklassen. Aus diesen Spektren lässt sich die Anzahl der Xi- -Hyperonen bei mittlerer Rapidität pro Kollision ermitteln. Sie steigt von 0,12+-0,01 bei peripheren Stößen auf 1,23+-0,07 zu zentralen Stößen hin an. Zudem kann man aus der Steigung der pt-Spektren den Temperaturparameter T berechnen. Dieser bewegt sich im Bereich von 226 bis 292 MeV, zeigt aber keine eindeutige Zentralitätsabhängigkeit.....
Im Zuge der wachsenden Bedeutung von ELearning an Hochschulen beschäftigt sich diese Arbeit mit dem Einsatz von WebCT an der Johann Wolfgang Goethe Universität in Frankfurt am Main. In der vorliegenden Arbeit soll untersucht werden, inwieweit es nötig und möglich ist, WebCT hinsichtlich Benutzerfreundlichkeit, der Realisierung technischer Ideen und der pädagogischen Einsatzmöglichkeiten einzelner Tools zu optimieren. Aufgrund von Erfahrungen unsererseits, aus der Sicht als Kursteilnehmer mehrerer Lehrveranstaltungen mit Unterstützung von WebCT, im Sinne von Blended Learning und zu einem späteren Zeitpunkt als Tutoren in einem auf WebCT basierendem Seminars stellten wir fest, dass sich die Einbindung von WebCT als ELearning Plattform als aufwendig erwies. Dies könnte an mangelnden technischen Kenntnissen und Möglichkeiten liegen als auch an der nachlassenden Nutzung von Seiten der Studenten im Laufe des Semesters. Für uns stellte sich nun die Frage, wie WebCT optimiert werden kann, damit sich der didaktisch sinnvolle Einsatz in Lehrveranstaltungen erhöht. Die Diplomarbeit unterteilt sich in zwei Abschnitte; zum Ersten in die Analyse von WebCT, anhand der Kriterien und der Interviews und zum Zweiten in die Interviewauswertung und – interpretation einschließlich der technischen Optimierung.
Wasserhäuschen : vom Babbeln mit Bier am Büdchen ; Stadtentwicklung im Zeichen der Trinkhalle
(2004)
Im Sommer 2003 kam es zu folgender Szene an einer Bockenheimer Trinkhalle: Ein offensichtlich armer Schlucker bezahlte mit einem zehn Euro Schein zwei Bier. Anstatt ihm das fällige Restgeld auszuhändigen, fragte die Betreiberin, ob sie ihm das Geld raus geben oder es behalten solle, damit er sich dafür am Abend etwas Warmes zu Essen kaufen könne. ...
Visualisierung von E-Mail-Traffic mit Schwerpunkt auf eine inhaltliche Analyse von Wortmustern
(2010)
E-Mail hat sich zu einem sehr wichtigen Kommunikationsmittel entwickelt, leidet aber aktuell unter einer massiven Verbreitung unerwünschter und unverlangter Inhalte. Diese können für einen Anwender nicht nur lästig sein, sondern auch die vorhandene Netz- und Speicher-Infrastruktur enorm belasten.
Die Notwendigkeit einer Filterung des E-Mail-Traffic hat zu einer Reihe recht unterschiedlicher Methoden geführt, die computergesteuert eine E-Mail auf ihren Spam-Gehalt untersuchen.
Die Motivation hinter dieser Arbeit ist zu prüfen, ob die besonderen Eigenschaften der visuellen Wahrnehmung eines Menschen als unterstützendes Mittel eingesetzt werden können, um E-Mail-Inhalte zu überprüfen und eventuell vorhandene Wort-Muster, die auf Spam deuten, sichtbar zu machen.
Um dieses Ziel zu erreichen musste zuerst eine geeignete Auswahl spamspezifischer Merkmale getroffen werden. Danach wurden Methoden des Text Minings angewendet, um aus dem Inhalt einer E-Mail strukturierte Daten zu gewinnen, die sich zur Repräsentation einer Nachricht eignen und als Grundlage für eine Visualisierung herangezogen werden können. Basierend auf den vorab ausgewählten Spam-Charakteristika wurdenWorteigenschaften mit Hilfe extern angebundener Wortlisten, regulärer Ausdrücke und unter Einsatz eines Wörterbuches überprüft, und die erhaltenen Ergebnisse flossen neben einer einfachen Gewichtung von Worthäufigkeiten in Form einer anwendungsspezifischen Gewichtung mit ein.
Es wurden anschließend zwei verschiedene Sichten konzipiert, um einem Anwender einen Einblick in die extrahierten Daten zu ermöglichen. Es hat sich herausgestellt, dass besonders Treemaps geeignet sind um die anfallenden Datenmengen kompakt abzubilden, aber gleichzeitig einen notwendigen Detailgrad auf einzelne Worteigenschaften gewährleisten.
Das Konzept wurde prototypisch unter Verwendung des Mailservers Mercury/32 sowie einer MySQL-Datenbank implementiert und konnte teilweise aufzeigen, dass es anhand der von der Engine generierten Strukturen möglich ist, spamspezifische Merkmale einer E-Mail unter Verwendung der gewählten Visualisierungstechniken auf eine Weise sichtbar zu machen, die einem Anwender eine Mustererkennung erlauben.
Die Diplomarbeit wurde als Gemeinschaftsarbeit angefertigt und konnte sinnvoll in zwei Bereiche aufgeteilt werden: Die Engine und die Visualisierung. Die konzeptuellen Überlegungen für das Thema sind größtenteils gemeinsam erfolgt, jedoch liegt der Schwerpunkt von Pouneh Khayat Pour im Bereich der Analyse und der von Yvonne Neidert in der Visualisierung.
Die Arbeitsgruppe für Chemie und Physik der Atmosphäre am Institut für Meteorologie und Geophysik der Johann Wolfgang Goethe-Universität Frankfurt befasst sich unter anderem mit der Entwicklung einer Continous Flow Diffusion Chamber zur Erfassung und Klassifikation von CCN und IN. Diese Partikel besitzen eine Größe im Mikrometerbereich und sind somit nicht leicht zu erfassen und zu unterscheiden. Bei vergleichbaren Versuchen beschränkte sich bisher die automatische Auswertung auf die Anzahl der Partikel. Es gibt noch kein Verfahren, welches eine Klassifikation in CCN und IN videobasiert vornehmen kann. Es lag ebenfalls kein reales Bildmaterial vor, welches zu Testzwecken für die Klassifikation geeignet gewesen wäre. Basierend auf den physikalischen und meteorologischen Grundlagen wurde mittels Raytracing ein künstlicher Bilddatensatz mit kleinen Eiskristallen und Wassertröpfchen unter verschiedenen Betrachtungsverhältnissen erstellt. Anhand dieses Bilddatensatzes wurde dann ein Verfahren zur Klassifikation entwickelt und prototypisch implementiert, welches dies mittels Methoden aus der graphischen Datenverarbeitung und durch Berechnung der Momente vornimmt. Es war notwendig, Verfahren aus der Kameratechnik zu betrachten, die später in der realen Anwendung mit sehr kurzzeitiger Belichtung, geeigneter Optik und hochauflösender CCD-Kamera detaillierte Bilder von Objekten in der Größe von einigen 10µm liefern können.
Diese Diplomarbeit untersucht die Güte eines globalen Datensatzes (IA), der die monatliche Ausdehnung der terrestrischen Oberflächengewässer für den Zeitraum von 1993 bis 2004 beinhaltet. IA ist aus komplementären, räumlich geringauflösenden Satellitendaten generiert. Die Wasserausdehnungen werden als prozentuale Flächenanteile von 0,5°-Gitterzellen angegeben. IA wäre durch seine monatliche Dynamik zur Kalibrierung und Validierung eines globalen Modells von temporären Überflutungsgebieten geeignet. Im Rahmen dieser Diplomarbeit werden die Wasserbedeckungen aus IA in einzelnen 0,5°-Zellen zu mehreren Zeitpunkten mithilfe von räumlich hochauflösenden Satellitenbildern des Enhanced Thematic Mapper Plus (ETM+) validiert. Aus Gründen der Effizienz (Minimierung des Speicheraufwands und der Verarbeitungszeit) wird nur ein einziger ETM+ Kanal im mittleren Infrarot zur Bestimmung der Wasserbedeckung verwendet: Band 5. Durch überwachte Klassifikationen wird der Anteil der Wasserflächen an der Gesamtfläche der 0,5°-Zellen ermittelt. Insgesamt werden 262 Klassifikationen in vier Untersuchungsgebieten durchgeführt. Zwischen den prozentualen Wasserbedeckungen aus IA und den ETM+ (Band 5)-Validierungsdaten werden häufige und unregelmäßige Abweichungen festgestellt. Die maximalen absoluten Abweichungen betragen mehr als 60%. Aufgrund dieser Ergebnisse sind die IA-Wasserausdehnungen nur sehr begrenzt als Validierungsdaten für die Modellierung von temporären Überflutungsgebieten geeignet.