Refine
Year of publication
Document Type
- Article (29936)
- Part of Periodical (11829)
- Book (8221)
- Doctoral Thesis (5585)
- Part of a Book (3622)
- Working Paper (3369)
- Review (2857)
- Contribution to a Periodical (2278)
- Preprint (1805)
- Report (1545)
Language
- German (41971)
- English (28337)
- French (1067)
- Portuguese (722)
- Multiple languages (304)
- Croatian (302)
- Spanish (301)
- Italian (193)
- mis (174)
- Turkish (148)
Is part of the Bibliography
- no (73844) (remove)
Keywords
- Deutsch (1037)
- Literatur (798)
- taxonomy (737)
- Deutschland (541)
- Rezension (491)
- new species (438)
- Frankfurt <Main> / Universität (341)
- Rezeption (320)
- Geschichte (291)
- Linguistik (268)
Institute
- Medizin (7356)
- Präsidium (5082)
- Physik (4113)
- Extern (2661)
- Wirtschaftswissenschaften (2656)
- Gesellschaftswissenschaften (2366)
- Biowissenschaften (2109)
- Biochemie und Chemie (1949)
- Center for Financial Studies (CFS) (1608)
- Informatik (1576)
Diese Arbeit behandelt das Thema der Darstellung und der Simulation von Pflanzen mit Lindenmayer-Systemen. Zur Darstellung der aus Lindenmayer- Systemen entwickelten Strukturen wird das Programm Linde 3D entwickelt, welches dem Benutzer das Erstellen und die Simulation von Objekten unter Verwendung von deterministischen, geschachtelten, stochastischen, kontextsensitiven, umgebungssensitiven und offenen Lindenmayer-Systemen ermöglicht.
Neben der Entwicklung des Programms Linde 3D liegt ein weiterer Schwerpunkt dieser Arbeit auf der Simulation der biologischen Prozesse Vernalisation und Stratifikation. Für die Simulation dieser Prozesse werden Lindenmayer- Systeme entwickelt, welche die Grundfunktionalität der Prozesse simulieren und in Abhängigkeit dieser dreidimensionale Modelle der Pflanze erzeugen.
Das Programm Linde 3D ist so konzipiert, dass es allgemein eingesetzt werden kann. Neben dem Verständnis für die abstrakten Modelle der Lindenmayer-Systeme werden keine speziellen Kenntnisse des Anwenders vorausgesetzt. Die Eingabe der L-Systeme erfolgt entweder über die Auswahl vordefinierter Lindenmayer-Systeme und Umweltdaten oder durch Komposition von Lindenmayer-Systemen und Umweltdaten durch den Anwender. Die graphische Interpretation der Lindenmayer-Systeme erfolgt unter Verwendung des Schildkröten-Modells. Die Ausgabe des Programms Linde 3D besteht zum einen aus einer direkten Darstellung der generierten Szene im Programm und zum anderen aus der Ausgabe der Szene in Form einer oder mehrerer Dateien für den POVRay Raytracer. Die erzeugten Dateien können durch externe Programme aufbereitet und zu einer Animation zusammengefügt werden.
Die vorliegende Arbeit beginnt mit einer kurzen Einführung in das Thema der Fraktale und Lindenmayer-Systeme, sowie den nötigen Grundlagen für das Verständnis der biologischen Hintergründe. Im Anschluss werden dem Leser die notwendigen theoretischen Grundkenntnisse zu Lindenmayer-Systemen und ein Einblick in aktuelle Anwendungen und Entwicklungen vermittelt. Nach einer Beschreibung der Anforderungen, des Aufbaus und der Implementierung des Programms Linde 3D werden die erworbenen Grundkenntnisse im Bereich der Lindenmayer-Systeme und das Programm Linde 3D eingesetzt, um Schritt für Schritt Lindenmayer-Systeme für die Simulation der biologischen Prozesse Vernalisation und Stratifikation zu entwickeln. Nach der Konstruktion der L-Systeme werden die erworbenen theoretischen Grundlagen für den Bereich des Testens von Parser und Schildkröten-Modell auf Funktionalität benötigt. Im Ausblick werden Ideen für Anwendungen und Erweiterungen des Programms Linde 3D beschrieben.
Konzeption und Implementierung einer Kommunikation zwischen Second Life und Web 2.0 Anwendungen
(2009)
Im Rahmen dieser Arbeit haben wir ein Konzept und einen Prototypen zur Kommunikation zwischen Second Life und Web 2.0 entwickelt.
Im Rahmen dieser Diplomarbeit wird ein Konzept und ein Prototyp zur Kommunikation zwischen Second Life und Web 2.0-Anwendungen entwickelt. In der Übung zur Veranstaltung "Einführung in das Projektmanagement" wurden Meetings in Second Life abgehalten. Dabei haben die Studierenden im Rahmen der Übung Protokolle erstellt, die sie im Internet veröffentlichten. Die Protokollierung musste immer manuell durchgeführt werden und war dadurch fehleranfällig und nicht ausfallsicher. Hier entstand der Wunsch, die Protokollierung zu automatisieren und somit den administrativen Aufwand zu reduzieren.
Im Kapitel 2 werden die Grundlagen behandelt, die für das Verständnis der Arbeit notwendig sind. Hierbei werden Second Life, sowie Blog und Wiki als Repräsentanten von Web 2.0 vorgestellt. Außerdem wird eine klare Abgrenzung zwischen diesen Technologien aufgezeigt.
Die Analyse dieser Diplomarbeit umfaÿt unter anderem die verschiedenen Möglichkeiten der Übertragung der Informationen zwischen Second Life und den Web 2.0-Anwendungen.
Im Konzept ist die Gesamtarchitektur zur Kommunikation zwischen Second Life und den Web 2.0 Anwendungen enthalten. Die Hauptsystemkomponenten, die dafür notwendig sind, stellen eine Ansammlung aus Second Life Skripten, dem HTTP Supervisor und den Wiki Bot Skripten dar. Die Second Life und die Wiki Bot Skripten sind eine Ansammlung von Unterprogrammen, die jeweils auf eine Aufgabe spezialisiert sind. Die genaue Erklärung wird im Kapitel 4 Aufgrund der Unterschiede der Web 2.0 Anwendungen wurde ein Bot eingesetzt, der eine Web 2.0 Anwendung bedient. Der HTTP Supervisor dient der Vermittlung dient der Vermittlung der Daten zwischen Second Life und der Web 2.0 Anwendung. Auÿerdem speichert er die Daten in temporäre Dateien. Der Second Life Teil des Programms dient der Steuerung des gesamten Systes.
Durch die prototypische Umsetzung ist die Durchführbarkeit bewiesen, die Daten aus Second Life herauszuführen und im MediaWiki zu speichern.
Lernplattformen sind E-Learning-Systeme, deren Kernfunktionalität die Verwaltung und Verteilung von Lernmaterialien über das World Wide Web ist. In dieser Arbeit wurde untersucht, wie durch Aufzeichnung (Tracking), Auswertung und Visualisierung von Lernaktivitäten in Lernplattformen eine Verbesserung der Lernqualität erreicht werden kann. Der Ansatzpunkt dafür war, Informationen zu Lernaktivitäten in geeigneter Weise Lehrenden und Lernenden zu präsentieren, so dass diese Rückschlüsse ziehen können, um Lernprozesse eigenständig zu optimieren. Viele Lernplattformen verfolgen bereits diesen Ansatz und verfügen deshalb über entsprechende Funktionalität.
Es mussten zwei wesentliche Fragen beantwortet werden:
1. Was müssen Lernende und Lehrende über erfolgte Lernaktivitäten wissen?
2. Wie werden Lernaktivitäten in geeigneter Weise präsentiert?
Diese Fragen wurden durch Betrachtung existierender Lernplattformen (State of the Art) sowie Befragung von Experten in Form von Interviews beantwortet. Zur Beantwortung der 2. Frage wurden außerdem allgemeine Grundlagen der Auswertung und Visualisierung von Daten verwendet sowie (zu einem geringen Teil) Auswertungs- und Visualisierungsverfahren von Systemen, die keine Lernplattformen sind. Besondere Aufmerksamkeit wurde auch dem
Datenschutz gewidmet.
Beruhend auf den gewonnenen Erkenntnissen wurde dann ein Konzept für ein Auswertungs-/Visualisierungssystem entwickelt das in verschiedenen Punkten eine Verbesserung des State of the Art darstellt.
Teile des Konzepts wurden schließlich für das webbasierte Softwaresystem LernBar, das über einen Großteil der Funktionalität einer Lernplattform verfügt, prototypisch implementiert. Durch die Implementierung soll es ermöglicht werden, das Konzept im praktischen Einsatz zu evaluieren, was im Rahmen dieser Arbeit nicht möglich war.
Diese Diplomarbeit hatte das Ziel ein Konzept zu erstellen, welches es ermöglicht, interessante und weniger interessante Artikel innerhalb eines Wikis zu erkennen und diese Informationen in verständlicher Form zur Recherche visuell bereitzustellen.
Dabei sollte das Konzept möglichst offen sein, so dass theoretisch jedes Wiki an die Visualisierung hätte angebunden werden können. Hier lag bereits das erste Problem, zum Zeitpunkt der Arbeit existieren bereits mehr als 100 unterschiedliche Wikis mit unterschiedlichen Architekturen. Wegen der Unterschiede der jeweiligen Wikisysteme entschloss man sich daher zwei Konzepte zu erarbeiten, ein allgemeines, welches wie in der gestellten Zielsetzung, das Einbinden jedes Wikis ermöglicht und ein Spezialfall, der die Vorteile einer API nutzt. Der Spezialfall wurde in ähnlicher Form in einer Implementierung umgesetzt.
Zu Beginn der Diplomarbeit mussten die unterschiedlichen Möglichkeiten der Extraktion von Informationen aus einem Wiki untersucht werden. Es hatte sich ziemlich früh herausgestellt das Links, Backlinks sowie Kategorien wichtige Indikatoren zur Bewertung eines Artikels darstellen. Damit die Bewertung der Informationen nicht nur alleine auf der Struktur eines Wikis beruht, wurde ein Thesaurus zur unterstützenden Bewertung miteinbezogen. Dieser lieferte durchgehend gute Ergebnisse, wobei - wie erwartet - der Thesaurus sehr schnell an seine Grenzen gekommen war, insbesondere wenn man die Anzahl der Artikel eines großen Wikis mit der Anzahl der Wörter die im Thesaurus gespeichert sind vergleicht.
Die extrahierten und gewichteten Informationen wurden im zweiten Schritt visualisiert, dabei hatte sich der Radial-Graph als eine gute Lösung zur Darstellung der Informationen herausgestellt. Neben einem Graphen mit gewichteten Knoten wurden in der Visualisierung unterschiedliche Ansichten der extrahierten Daten bereitgestellt: eine Autorenansicht, die zum gesuchten Artikel die Autoren darstellt, eine semantische Ansicht, die Wortbeziehungen veranschaulicht sowie eine Artikelansicht, die den Nutzer neben den gewichteten Artikeln auch wie gewohnt in einer Wiki lesen lässt.
Klassische Bildmanipulation spielt sich meist im Zweidimensionalen, also in der reinen Bild-ebene ab. So werden beispielsweise Objekte aus Fotos entfernt, indem die dahinterliegende Struktur nachgezeichnet wird, oder es werden mehrere Teilbilder zu einem neuen, verfälschten Motiv zusammengesetzt. Bei der sogenannten Bildretuschierung werden unschöne Bereiche übermalt, um einen besseren Gesamteindruck zu erreichen. All diese Manipulationen haben im Grunde das gleiche Ziel: Das Erstellen einer möglichst realistischen Verfälschung der darge-stellten Szene indem die eigentlich dreidimensionalen Elemente in 2D imitiert werden.
Ziel dieser Arbeit ist es, von der reinen Zweidimensionalität eines Bildes Abstand zu nehmen und ein neues Verfahren zu entwickeln, Manipulationen im wirklichen 3D-Inhalt des Fotogra-fierten vorzunehmen. Dazu wird die klassische Bildmanipulation mit aktuellen Verfahren aus dem Bereich Multi View Stereo verknüpft. In einem ersten Schritt wird aus einer Fotoserie ein 3D-Modell mit passenden Texturen erstellt, welches anschließend nach Belieben manipuliert werden kann. Diese Veränderungen werden schließlich wieder in die Originalbilder übertragen, wodurch eine 3D-unterstützte Bildmanipulation realisiert wird.
Die praktische Umsetzung des vorgestellten Verfahrens basiert teilweise auf bereits vorhan-dener Software, die mit dem Ziel der Bildmanipulation neu kombiniert und durch eigene Um-setzungen ergänzt wird. So entsteht eine funktionierende Implementierung, die den kompletten Weg vom Original bis hin zum manipulierten Bild abdeckt.
Jede erfolgreiche Software muss in einer geeigneten Art und Weise mit der Person, die sie benutzt, in Verbindung treten. Diese Schnittstelle zwischen Mensch und Maschine ist ein zentraler Baustein in der Softwareentwicklung. Eine noch so mächtige und ausgereifte Software kann ihr Potential nicht ausschöpfen, wenn Probleme und Missverständnisse bei der Kommunikation mit dem Anwender auftreten.
Bei graphischen Benutzeroberflächen erfolgt die Interaktion zwischen Benutzer und technischem System mittels graphischer Symbole, die am Bildschirm dargestellt werden. Die Oberfläche setzt sich aus verschiedenen Menüs und Steuerelementen mit dem Ziel zusammen, die zugrunde liegende Software für den Anwender bedienbar zu machen. Als Eingabegeräte dienen vor allem Maus und Tastatur. Für die Human Computer Interaction oder abgekürzt HCI (Mensch-Computer Interaktion) sind spezielle Normierungen und Anforderungen erstellt worden, die den Entwicklungsprozess unterstützten.
In dieser Arbeit wird eine graphische Benutzeroberfläche für einen Shader Viewer entworfen und implementiert. Beginnend bei ersten Skizzen und Prototypen wird der Entwicklungsprozess bis zur fertigen graphischen Oberfläche dargestellt. Probleme bei der Erstellung werden aufgezeigt und Lösungsstrategien entwickelt. Vor allem spielen Design und Usablity eine entscheidende Rolle. Verschiedene Aspekte und Alternativen, die im Entwicklungsprozess zu beachten sind, werden näher beleuchtet.
Diese Arbeit beschäftigt sich mit der konkreten Erzeugung von 2-3D Visualisierung. Im Fokus steht der notwendige Prozess zur Erzeugung von Computergrafik.
Da die Computergrafik heut zu Tage wichtiger Bestandteil vieler Aufgabengebiete ist, sollte deren Nutzung auch allen Menschen zugänglich sein. In den vergangen Jahren blieb dies meist nur Leuten aus den Fachgebieten vorbehalten, aufgrund der Komplexität und des notwendigen „Know-how“ über die Thematik. Mittlerweile gilt diese Tatsache als überholt. Viele Erneuerung im Bereich von Hardware und Software haben es ermöglicht, dass selbst ungeübte Anwender in der Lage sind, ansehnliche 3D Grafiken an ihren PCs bei der Arbeit oder zu Hause zu erzeugen. Dies soll ebenfalls das Ziel dieser Arbeit sein. Dazu wird in eine Applikation erstellt die die Visualisierung von graphischen Primitiven unter der Verwendug von Microsofts DirectX leicht und schnell ermöglichen soll. Als Basis dient ein Rendering-Framework, welches auf einheitliches Schnittstellenkonzept setzt, um die strikte Trennung zwischen Anwender- und Fachwissen zu vollziehen.
Weitere Schwerpunkte dieser Arbeit liegen im Bereich der Modellierung von graphischen Primtiven und der Nutzung von Shadern. Dazu wird in der Modellierung der Import von archivierten Modellen umgesetzt. Die Nutzung von Shadern soll soweit vereinfacht werden, dass Anwender auf Shader beleibig zugreifen können. Dies soll durch eine Verknüpfung zwischen Shadern und Modellen erfolgen, die ebenfalls im Bereich der Modellierung erfolgt.
Shader zur Bildbearbeitung
(2009)
In den letzten Jahren haben Grafikkarten eine starke Veränderung erfahren. Anfangs war lediglich die Darstellung vorberechneter Primitive möglich, mittlerweile lassen sich Vertex- und Pixelshader komplett frei programmieren. Die Spezialisierung auf den Rendervorgang hat die GPUs (Graphics Processing Units) zu massiv-parallelen Prozessoren wachsen lassen, die unter optimaler Ausnutzung ein Vielfaches der Rechenleistung aktueller CPUs erreichen. Die programmierbaren Shader haben Grafikkarten in der letzten Zeit vermehrt als weiteren Prozessor für General Purpose-Programmierung werden lassen.
Aktuelle Bildbearbeitungsprogramme zeigen, dass sich die Tendenz Richtung GPU bewegt, so wird sich auch in dieser Arbeit die enorme Rechenleistung der GPU für die Bildbearbeitung zu nutzen gemacht. Bildfilter lassen sich als Pixelshader realisieren und ermöglichen so die Ausführung direkt auf der GPU. Das vorgestellte Framework SForge wurde mit dem Ziel entwickelt, zu einem bestehenden Framework kompatibel zu sein. Als bestehendes Framework wurde auf AForge zurückgegriffen. Mit SForge können bestehende und eigene Bildfilter direkt auf der GPU ausgeführt werden, aber auch die Konvertierung von Farbräumen und Farbsystemen wurden realisiert. Das Framework arbeitet floatbasierend. Somit können auch HDR-Daten verarbeitet werden, um beispielsweise Tonemapping anzuwenden. Filter mit Parametern lassen sich über einen optionalen Dialog interaktiv ändern und modifizieren das Resultat in Echtzeit.
In erstem Teil der Arbeit wurde der Begriff Drehbuch in Hinsicht auf die Erstellung von eLearning Kursen erläutert und eLearning Inhalte auf ihre typischen Merkmale untersucht. Dabei war es wichtig zu verstehen, ob und wie die kooperative Arbeit an Inhalten in gängigen Textbearbeitungsprogrammen unterstützt wird und welche Vor- und Nachteile der jeweilige Editor aufweist. Wie sich herausgestellt hat, setzen bestehende Lösungen auf Auszeichnungen von Textbausteinen und der Kursstruktur mit Hilfe von speziellen Makros, so dass beim Transformieren des Kurses diese wiedererkannt werden können. Leider sind diese Lösungen auf einen bestimmten Editor spezialisiert und betrachten die kooperativen Aspekte der Arbeit an Inhalten nicht.
Da das Drehbuch in einem Textbearbeitungsprogramm erstellt wird, ist die Möglichkeit der Wahl von einem Editor für die Autoren vorteilhaft. Deshalb sieht der Lösungsansatz in meiner Arbeit vor, dass die Umsetzung des Drehbuches nicht auf einen bestimmten Editor beschränkt ist und dass für jeden Editor kooperative Bearbeitung ermöglicht wird. Dies wird zum einen durch Verwendung eines Versionskontrollesystems und zum anderen durch die kooperativen Eigenschaften der Editoren erreicht.
Das Transformieren eines Drehbuches zu einem eLearning Kurs wurde einheitlich gestaltet, da HTML als ein gemeinsames Format der Ausgabe von Editoren ausgewählt wurde. In der Implementierung des Lösungsansatzes konnte am Beispiel des Autorensprogramms LernBar die Unterstützung von bereits drei Editoren erreicht werden.
Einige Einschränkungen sind bei der Verwendung dieser Lösung zu beachten. Bei den Veränderungen in der HTML-Ausgabe der Editoren sind möglicherweise auch Anpassungen im Programm vorzunehmen. Die Verwendung von Tabellen impliziert, dass ihre Struktur durch den Autor nicht geändert wird, was durchaus auch versehentlich passieren kann. Bei der Erstellung von Tests ist eine umfassende Validierung empfehlenswert, damit die Tests wie erwartet durchgeführt werden können. Es wurden in der Implementierung nur einige Testtypen umgesetzt und möglicherweise sind einige Tests nicht für die Erfassung im Drehbuch geeignet. In dem Fall müssen sie in den verwendeten Autorenprogramm direkt erstellt werden.
Die rasante Entwicklung von Internettechnologien wird sicherlich neue Möglichkeiten sowohl für die kooperative Arbeit, als auch für Textbearbeitungsfunktionalitäten anbieten. Allein im Jahr 2010 wurden mehrere Neuerungen auf dem Markt von Online-Editoren eingeführt. Microsoft hat eine Online-Version1 von seiner Office-Suite veröffentlicht und damit eine neue Alternative zu Google Docs angeboten. In Google-Docs werden nahezu im monatlichen Takt neue nützliche Funktionen implementiert, die sowohl die Textverarbeitung als auch die Kooperation verbessern.