Universitätspublikationen
Refine
Year of publication
- 2009 (608) (remove)
Document Type
- Article (178)
- Doctoral Thesis (115)
- Part of Periodical (101)
- Book (64)
- Review (49)
- Conference Proceeding (26)
- Working Paper (17)
- Report (13)
- Diploma Thesis (11)
- Bachelor Thesis (9)
- Magister's Thesis (7)
- diplomthesis (6)
- Periodical (5)
- Part of a Book (4)
- magisterthesis (3)
Language
- German (366)
- English (225)
- French (7)
- Portuguese (7)
- Spanish (2)
- Multiple languages (1)
Is part of the Bibliography
- no (608)
Keywords
- Europa (7)
- Deutschland (4)
- Lambda-Kalkül (4)
- China (3)
- Forschung (3)
- Frankfurt <Main> / Universität (3)
- Frankreich (3)
- Zeitschrift (3)
- reactive oxygen species (3)
- Adorno (2)
Institute
- Medizin (122)
- Präsidium (75)
- Biochemie und Chemie (46)
- Gesellschaftswissenschaften (46)
- Rechtswissenschaft (41)
- Geowissenschaften (34)
- Physik (33)
- Biowissenschaften (30)
- E-Finance Lab e.V. (24)
- Informatik (24)
Medium range hydrological forecasts in mesoscale catchments are only possible with the use of hydrological models driven by meteorological forecasts, which in particular contribute quantitative precipitation forecasts (QPF). QPFs are accompanied by large uncertainties, especially for longer lead times, which are propagated within the hydrometeorological model system. To deal with this limitation of predictability, a probabilistic forecasting system is tested, which is based on a hydrological-meteorological ensemble prediction system. The meteorological component of the system is the operational limited-area ensemble prediction system COSMO-LEPS that downscales the global ECMWF ensemble to a horizontal resolution of 10 km, while the hydrological component is based on the semi-distributed hydrological model PREVAH with a spatial resolution of 500 m.
Earlier studies have mostly addressed the potential benefits of hydrometeorological ensemble systems in short case studies. Here we present an analysis of hydrological ensemble hindcasts for two years (2005 and 2006). It is shown that the ensemble covers the uncertainty during different weather situations with an appropriate spread-skill relationship. The ensemble also shows advantages over a corresponding deterministic forecast, even under consideration of an artificial spread.
Two decades after the predicted “end of ideology”, we are observing a re-emphasis on party ideology under Hu Jintao. The paper looks into the reasons for and the factors shaping the re-formulation of the Chinese Communist Party’s (CCP) ideology since 2002 and assesses the progress and limits of this process. Based on the analysis of recent elite debates, it is argued that the remaking of ideology has been the consequence of perceived challenges to the legitimacy of CCP rule. Contrary to many Western commentators, who see China’s successful economic performance as the most important if not the only source of regime legitimacy, Chinese party theorists and scholars have come to regard Deng Xiaoping’s formula of performance-based legitimacy as increasingly precarious. In order to tackle the perceived “performance dilemma” of party rule, the adaptation and innovation of party ideology is regarded as a crucial measure to relegitimize CCP rule.
Trotz eines umfangreichen Angebots an Literatur und Ratgebern im Bereich des Projektmanagements scheitern auch heute noch viele IT-Projekte. Ursache sind oft Probleme im Projektteam oder Fehleinschätzungen in der Planung des Projektes und Überwachung des Projektstatus. Insbesondere durch neue Technologien und Globalisierung entstandene Arbeitsweisen wie das virtuelle Team sind davon betroffen. In dieser Arbeit wird auf die Frage eingegangen, was virtuelle Teams sind und welche Probleme die Arbeit von virtuellen Teams belastet. Dafür werden aktuell existierende Tools aus dem Bereich des Web 2.0 analysiert und aus dem Stand der angebotenen Tools vermeidbare Schwächen der Helfer herausgearbeitet. Anschließend wird ein mittels einer Anforderungsanalyse und eines Konzepts, welches neue Methoden zur Darstellung von Projektstatus und Verknüpfung mit Dokumentation und Kommunikation nutzt, das Tool „TeamVision“ erstellt, welches versucht, virtuelle Teams möglichst effizient zu managenen, Probleme schnell zu erkennen und somit die Arbeit innerhalb des Teams zu beschleunigen. Hierbei wird insbesondere das Ergebnis der Analyse benutzt, dass viele Tools einzelne Verwaltungsaufgaben getrennt durchführen. Informationen müssen vom Nutzer selbst aus den verschiedenen Grafiken, Listen oder anderen Darstellungen gesammelt und selbst assoziiert werden. Die prototypische Implementierung von TeamVision versucht den Informationsfluss beherrschbar zu machen, indem Übersichten in einem Projektbaum zusammengefasst werden, der mittels Zoomfunktionen und visueller Hilfsmitel wie Farbgebung versucht, die Informationsbeschaffung zu erleichtern.
Konzeption und Implementierung einer Kommunikation zwischen Second Life und Web 2.0 Anwendungen
(2009)
Im Rahmen dieser Arbeit haben wir ein Konzept und einen Prototypen zur Kommunikation zwischen Second Life und Web 2.0 entwickelt.
Im Rahmen dieser Diplomarbeit wird ein Konzept und ein Prototyp zur Kommunikation zwischen Second Life und Web 2.0-Anwendungen entwickelt. In der Übung zur Veranstaltung "Einführung in das Projektmanagement" wurden Meetings in Second Life abgehalten. Dabei haben die Studierenden im Rahmen der Übung Protokolle erstellt, die sie im Internet veröffentlichten. Die Protokollierung musste immer manuell durchgeführt werden und war dadurch fehleranfällig und nicht ausfallsicher. Hier entstand der Wunsch, die Protokollierung zu automatisieren und somit den administrativen Aufwand zu reduzieren.
Im Kapitel 2 werden die Grundlagen behandelt, die für das Verständnis der Arbeit notwendig sind. Hierbei werden Second Life, sowie Blog und Wiki als Repräsentanten von Web 2.0 vorgestellt. Außerdem wird eine klare Abgrenzung zwischen diesen Technologien aufgezeigt.
Die Analyse dieser Diplomarbeit umfaÿt unter anderem die verschiedenen Möglichkeiten der Übertragung der Informationen zwischen Second Life und den Web 2.0-Anwendungen.
Im Konzept ist die Gesamtarchitektur zur Kommunikation zwischen Second Life und den Web 2.0 Anwendungen enthalten. Die Hauptsystemkomponenten, die dafür notwendig sind, stellen eine Ansammlung aus Second Life Skripten, dem HTTP Supervisor und den Wiki Bot Skripten dar. Die Second Life und die Wiki Bot Skripten sind eine Ansammlung von Unterprogrammen, die jeweils auf eine Aufgabe spezialisiert sind. Die genaue Erklärung wird im Kapitel 4 Aufgrund der Unterschiede der Web 2.0 Anwendungen wurde ein Bot eingesetzt, der eine Web 2.0 Anwendung bedient. Der HTTP Supervisor dient der Vermittlung dient der Vermittlung der Daten zwischen Second Life und der Web 2.0 Anwendung. Auÿerdem speichert er die Daten in temporäre Dateien. Der Second Life Teil des Programms dient der Steuerung des gesamten Systes.
Durch die prototypische Umsetzung ist die Durchführbarkeit bewiesen, die Daten aus Second Life herauszuführen und im MediaWiki zu speichern.
Lernplattformen sind E-Learning-Systeme, deren Kernfunktionalität die Verwaltung und Verteilung von Lernmaterialien über das World Wide Web ist. In dieser Arbeit wurde untersucht, wie durch Aufzeichnung (Tracking), Auswertung und Visualisierung von Lernaktivitäten in Lernplattformen eine Verbesserung der Lernqualität erreicht werden kann. Der Ansatzpunkt dafür war, Informationen zu Lernaktivitäten in geeigneter Weise Lehrenden und Lernenden zu präsentieren, so dass diese Rückschlüsse ziehen können, um Lernprozesse eigenständig zu optimieren. Viele Lernplattformen verfolgen bereits diesen Ansatz und verfügen deshalb über entsprechende Funktionalität.
Es mussten zwei wesentliche Fragen beantwortet werden:
1. Was müssen Lernende und Lehrende über erfolgte Lernaktivitäten wissen?
2. Wie werden Lernaktivitäten in geeigneter Weise präsentiert?
Diese Fragen wurden durch Betrachtung existierender Lernplattformen (State of the Art) sowie Befragung von Experten in Form von Interviews beantwortet. Zur Beantwortung der 2. Frage wurden außerdem allgemeine Grundlagen der Auswertung und Visualisierung von Daten verwendet sowie (zu einem geringen Teil) Auswertungs- und Visualisierungsverfahren von Systemen, die keine Lernplattformen sind. Besondere Aufmerksamkeit wurde auch dem
Datenschutz gewidmet.
Beruhend auf den gewonnenen Erkenntnissen wurde dann ein Konzept für ein Auswertungs-/Visualisierungssystem entwickelt das in verschiedenen Punkten eine Verbesserung des State of the Art darstellt.
Teile des Konzepts wurden schließlich für das webbasierte Softwaresystem LernBar, das über einen Großteil der Funktionalität einer Lernplattform verfügt, prototypisch implementiert. Durch die Implementierung soll es ermöglicht werden, das Konzept im praktischen Einsatz zu evaluieren, was im Rahmen dieser Arbeit nicht möglich war.
Diese Diplomarbeit hatte das Ziel ein Konzept zu erstellen, welches es ermöglicht, interessante und weniger interessante Artikel innerhalb eines Wikis zu erkennen und diese Informationen in verständlicher Form zur Recherche visuell bereitzustellen.
Dabei sollte das Konzept möglichst offen sein, so dass theoretisch jedes Wiki an die Visualisierung hätte angebunden werden können. Hier lag bereits das erste Problem, zum Zeitpunkt der Arbeit existieren bereits mehr als 100 unterschiedliche Wikis mit unterschiedlichen Architekturen. Wegen der Unterschiede der jeweiligen Wikisysteme entschloss man sich daher zwei Konzepte zu erarbeiten, ein allgemeines, welches wie in der gestellten Zielsetzung, das Einbinden jedes Wikis ermöglicht und ein Spezialfall, der die Vorteile einer API nutzt. Der Spezialfall wurde in ähnlicher Form in einer Implementierung umgesetzt.
Zu Beginn der Diplomarbeit mussten die unterschiedlichen Möglichkeiten der Extraktion von Informationen aus einem Wiki untersucht werden. Es hatte sich ziemlich früh herausgestellt das Links, Backlinks sowie Kategorien wichtige Indikatoren zur Bewertung eines Artikels darstellen. Damit die Bewertung der Informationen nicht nur alleine auf der Struktur eines Wikis beruht, wurde ein Thesaurus zur unterstützenden Bewertung miteinbezogen. Dieser lieferte durchgehend gute Ergebnisse, wobei - wie erwartet - der Thesaurus sehr schnell an seine Grenzen gekommen war, insbesondere wenn man die Anzahl der Artikel eines großen Wikis mit der Anzahl der Wörter die im Thesaurus gespeichert sind vergleicht.
Die extrahierten und gewichteten Informationen wurden im zweiten Schritt visualisiert, dabei hatte sich der Radial-Graph als eine gute Lösung zur Darstellung der Informationen herausgestellt. Neben einem Graphen mit gewichteten Knoten wurden in der Visualisierung unterschiedliche Ansichten der extrahierten Daten bereitgestellt: eine Autorenansicht, die zum gesuchten Artikel die Autoren darstellt, eine semantische Ansicht, die Wortbeziehungen veranschaulicht sowie eine Artikelansicht, die den Nutzer neben den gewichteten Artikeln auch wie gewohnt in einer Wiki lesen lässt.
Klassische Bildmanipulation spielt sich meist im Zweidimensionalen, also in der reinen Bild-ebene ab. So werden beispielsweise Objekte aus Fotos entfernt, indem die dahinterliegende Struktur nachgezeichnet wird, oder es werden mehrere Teilbilder zu einem neuen, verfälschten Motiv zusammengesetzt. Bei der sogenannten Bildretuschierung werden unschöne Bereiche übermalt, um einen besseren Gesamteindruck zu erreichen. All diese Manipulationen haben im Grunde das gleiche Ziel: Das Erstellen einer möglichst realistischen Verfälschung der darge-stellten Szene indem die eigentlich dreidimensionalen Elemente in 2D imitiert werden.
Ziel dieser Arbeit ist es, von der reinen Zweidimensionalität eines Bildes Abstand zu nehmen und ein neues Verfahren zu entwickeln, Manipulationen im wirklichen 3D-Inhalt des Fotogra-fierten vorzunehmen. Dazu wird die klassische Bildmanipulation mit aktuellen Verfahren aus dem Bereich Multi View Stereo verknüpft. In einem ersten Schritt wird aus einer Fotoserie ein 3D-Modell mit passenden Texturen erstellt, welches anschließend nach Belieben manipuliert werden kann. Diese Veränderungen werden schließlich wieder in die Originalbilder übertragen, wodurch eine 3D-unterstützte Bildmanipulation realisiert wird.
Die praktische Umsetzung des vorgestellten Verfahrens basiert teilweise auf bereits vorhan-dener Software, die mit dem Ziel der Bildmanipulation neu kombiniert und durch eigene Um-setzungen ergänzt wird. So entsteht eine funktionierende Implementierung, die den kompletten Weg vom Original bis hin zum manipulierten Bild abdeckt.
Jede erfolgreiche Software muss in einer geeigneten Art und Weise mit der Person, die sie benutzt, in Verbindung treten. Diese Schnittstelle zwischen Mensch und Maschine ist ein zentraler Baustein in der Softwareentwicklung. Eine noch so mächtige und ausgereifte Software kann ihr Potential nicht ausschöpfen, wenn Probleme und Missverständnisse bei der Kommunikation mit dem Anwender auftreten.
Bei graphischen Benutzeroberflächen erfolgt die Interaktion zwischen Benutzer und technischem System mittels graphischer Symbole, die am Bildschirm dargestellt werden. Die Oberfläche setzt sich aus verschiedenen Menüs und Steuerelementen mit dem Ziel zusammen, die zugrunde liegende Software für den Anwender bedienbar zu machen. Als Eingabegeräte dienen vor allem Maus und Tastatur. Für die Human Computer Interaction oder abgekürzt HCI (Mensch-Computer Interaktion) sind spezielle Normierungen und Anforderungen erstellt worden, die den Entwicklungsprozess unterstützten.
In dieser Arbeit wird eine graphische Benutzeroberfläche für einen Shader Viewer entworfen und implementiert. Beginnend bei ersten Skizzen und Prototypen wird der Entwicklungsprozess bis zur fertigen graphischen Oberfläche dargestellt. Probleme bei der Erstellung werden aufgezeigt und Lösungsstrategien entwickelt. Vor allem spielen Design und Usablity eine entscheidende Rolle. Verschiedene Aspekte und Alternativen, die im Entwicklungsprozess zu beachten sind, werden näher beleuchtet.
Diese Arbeit beschäftigt sich mit der konkreten Erzeugung von 2-3D Visualisierung. Im Fokus steht der notwendige Prozess zur Erzeugung von Computergrafik.
Da die Computergrafik heut zu Tage wichtiger Bestandteil vieler Aufgabengebiete ist, sollte deren Nutzung auch allen Menschen zugänglich sein. In den vergangen Jahren blieb dies meist nur Leuten aus den Fachgebieten vorbehalten, aufgrund der Komplexität und des notwendigen „Know-how“ über die Thematik. Mittlerweile gilt diese Tatsache als überholt. Viele Erneuerung im Bereich von Hardware und Software haben es ermöglicht, dass selbst ungeübte Anwender in der Lage sind, ansehnliche 3D Grafiken an ihren PCs bei der Arbeit oder zu Hause zu erzeugen. Dies soll ebenfalls das Ziel dieser Arbeit sein. Dazu wird in eine Applikation erstellt die die Visualisierung von graphischen Primitiven unter der Verwendug von Microsofts DirectX leicht und schnell ermöglichen soll. Als Basis dient ein Rendering-Framework, welches auf einheitliches Schnittstellenkonzept setzt, um die strikte Trennung zwischen Anwender- und Fachwissen zu vollziehen.
Weitere Schwerpunkte dieser Arbeit liegen im Bereich der Modellierung von graphischen Primtiven und der Nutzung von Shadern. Dazu wird in der Modellierung der Import von archivierten Modellen umgesetzt. Die Nutzung von Shadern soll soweit vereinfacht werden, dass Anwender auf Shader beleibig zugreifen können. Dies soll durch eine Verknüpfung zwischen Shadern und Modellen erfolgen, die ebenfalls im Bereich der Modellierung erfolgt.