Refine
Year of publication
Document Type
- Bachelor Thesis (34) (remove)
Has Fulltext
- yes (34) (remove)
Is part of the Bibliography
- no (34)
Keywords
- 3D (1)
- BIM (1)
- Bitcoin (1)
- Chatbot (1)
- Dialog Generation (1)
- Direct Manipulation (1)
- Einteilung (1)
- Graph (1)
- Gruppe (1)
- HCI (1)
Institute
- Informatik (34) (remove)
Im Fachbereich der Computerlinguistik ist die automatische Generierung von Szenen aus, in natürlicher Sprache verfassten, Text seit bereits vielen Jahrzehnten ein wichtiger Bestandteil der Forschung, welche in der "Kunst", "Lehre" und "Robotik" Verwendung finden. Mit Hilfe von neuen Technologien im Bereich der Künstlichen Intelligenzen (KI), werden neue Entwicklungen möglich, welche diese Generierungen vereinfachen, allerdings auch undurchsichtige interne vom Modell getroffene Entscheidungen fördern.
Ziel der vorgeschlagenen Lösung „ARES: Annotation von Relationen und Eigenschaften zur Szenengenerierung“ ist es, ein modulares System zu entwerfen, wobei einzelne Prozesse für den Benutzer verständlich bleiben. Außerdem sollen Möglichkeiten geboten werden, neue Entitäten und Relationen, welche über die Textanalyse bereitgestellt werden, auch in die Szenengenerierung im dreidimensionalen Raum einzupflegen, ohne dass hierfür Code zwingend notwendig wird.
Der Fokus liegt auf der syntaktisch korrekten Darstellung der Elemente im Raum. Dagegen lässt sich die semantische Korrektheit durch weitere manuelle Anpassungen, welche für spätere Generierungen gespeichert werden erhöhen. Letztlich soll die Menge der zur Darstellung benötigten Annotationen möglichst gering bleiben und neue szenenbezogene Annotationen durch die implementierten Annotationstools hinzugefügt werden.
To accommodate the growth of the software industry, programming languages are getting increasingly easy to use. The latest trend in the simplification of the software development process is the usage of visual programming environments. To make visual programming effective, the graph-like representation of the source code must be clearly arranged. This thesis details some of the difficulties in automatic layout generation and proposes an interface as well as two different implementations of automatic layout generators to integrate into the VWorkflows visual programming framework.
Das Ziel dieser Arbeit ist, einen Text automatisch darauf zu untersuchen, ob er Gebäude beschreibt, und diese gegebenenfalls zu visualisieren. Zu diesem Zweck wurde ein Prototyp entwickelt, der mithilfe von NLP-Software auf Basis einer UIMA-Pipeline einen Text auf Gebäudedaten untersucht und diese anschließend als 3D-Modelle auf einer Karte visualisiert. Um die Güte des Projekts zu bestimmen wurde eine Evaluation durchgeführt, in der die Aufgabe darin bestand, Paragraphen ihren zugehörigen 3D-Modellen zuzuordnen. Die Ergebnisse wiesen eine Erkennungsrate von 88.67\% auf. Jedoch wurden auch Schwächen im Standardisierungsverfahren der Parameter und in der einseitigen Art zu Visualisieren aufgezeigt. Zum Schluss wird vorgestellt, wie diese Schwachstellen mithilfe eines ontologischen Modells behoben werden können und wie mit dem Projekt weiterverfahren werden kann.
Large language models have become widely available to the general public, especially due to ChatGPT's release. Consequently, the AI community has invested much effort into recreating language models of the same caliber as ChatGPT, since the latter is still a technical blackbox. This thesis aims to contribute to that cause by proposing R.O.B.E.R.T., a Robotic Operating Buddy for Efficiency, Research and Teaching. In doing so, it presents a first implementation of a lightweight environment which produces tailor-made, instruction-following language models with a heavy focus on conversational capabilities that instruct themselves into a given domain-context. Within this environment, the generation of datasets, the fine-tuning process and finally the inference of a unique R.O.B.E.R.T. instance are all carried out as part of an automated pipeline.
Diese Arbeit beschäftigt sich mit der konkreten Erzeugung von 2-3D Visualisierung. Im Fokus steht der notwendige Prozess zur Erzeugung von Computergrafik.
Da die Computergrafik heut zu Tage wichtiger Bestandteil vieler Aufgabengebiete ist, sollte deren Nutzung auch allen Menschen zugänglich sein. In den vergangen Jahren blieb dies meist nur Leuten aus den Fachgebieten vorbehalten, aufgrund der Komplexität und des notwendigen „Know-how“ über die Thematik. Mittlerweile gilt diese Tatsache als überholt. Viele Erneuerung im Bereich von Hardware und Software haben es ermöglicht, dass selbst ungeübte Anwender in der Lage sind, ansehnliche 3D Grafiken an ihren PCs bei der Arbeit oder zu Hause zu erzeugen. Dies soll ebenfalls das Ziel dieser Arbeit sein. Dazu wird in eine Applikation erstellt die die Visualisierung von graphischen Primitiven unter der Verwendug von Microsofts DirectX leicht und schnell ermöglichen soll. Als Basis dient ein Rendering-Framework, welches auf einheitliches Schnittstellenkonzept setzt, um die strikte Trennung zwischen Anwender- und Fachwissen zu vollziehen.
Weitere Schwerpunkte dieser Arbeit liegen im Bereich der Modellierung von graphischen Primtiven und der Nutzung von Shadern. Dazu wird in der Modellierung der Import von archivierten Modellen umgesetzt. Die Nutzung von Shadern soll soweit vereinfacht werden, dass Anwender auf Shader beleibig zugreifen können. Dies soll durch eine Verknüpfung zwischen Shadern und Modellen erfolgen, die ebenfalls im Bereich der Modellierung erfolgt.
Die folgende Bachelorarbeit beschäftigt sich mit dem Thema des Displacement-Mappings unter Verwendung eines Tessellation-Shaders. Ziel dieser Arbeit ist es, ein Programm zu entwerfen, welches einen visuellen Einblick in die Tessellation und in das Displacement-Mapping bietet. Des Weiteren soll die Leistung der Tessellation mit der des Geometry-Shaders und einem QuadTree-Verfahren verglichen werden.
Dazu wird zuerst beschrieben, welche Umgebung zur Implementierung verwendet wurde. Anschließend werden zunächst einige geläufige Mappingverfahren betrachtet. Im nächsten Abschnitt wird dann auf die Tessellation und das Displacement-Mapping in Bezug auf Funktionsweise und Implementierung eingegangen. Es folgt ein Vergleich der Performance der unterschiedlichen Mapping-Verfahren untereinander. In einem weiteren Vergleich wird die Performance der Tessellation (mit Displacement-Mapping) mit einem Geometry-Shader und einem QuadTree-Verfahren anhand eines Terrains durchgeführt. Abschließend erfolgt die Beschreibung des Programms.
Im Rahmen dieser Bachelorarbeit wurde eine flashbasierte Anwendung zum Trainieren und Prüfen der Fähigkeit zur korrekten Interpretation von Bildinformationen entwickelt.
Den Ausgangspunkt der Entwicklung bildete eine Analyse von bisher existierenden Anwendungen am Beispiel der Radiologie. Die Analyse ergab, dass die bereits existierenden Anwendungen Interaktionen mit dem Bild in bestimmten Umfang erlauben, jedoch keine Anwendung gefunden werden konnte, bei der ein direktes Markieren von Strukturen im Bild mit z.B. einem Stift möglich ist. Ziel war es, dies zu entwickeln.
Die Entwicklung des Konzeptes begann mit einer Analyse der Anforderungen, die sich aus dem Bildmaterial in der Radiologie ergeben. Daraus wurden drei Aufgabenszenarien entwickelt: Nachfahren einer Struktur, einkreisen einer Struktur und markieren einer Struktur durch einen Stempel. Diese Aufgabenszenarien erfordern verschiedene Zeichen- und Hilfswerkzeuge. Implementiert wurden die Zeichenwerkzeuge Stift, Stempel und aufziehbarer Kreis, so wie die Hilfswerkzeuge Zoom und Helligkeitsregelung.
Für die drei Aufgabenszenarien wurden im Konzept Definitionen des Lösungsbereiches erstellt, den der Ersteller von Übungen im Flash Template an gibt. Diese drei Lösungsbereiche erfordern wiederum unterschiedliche Auswertungen und andere Verfahren zur Fehlerwertungen. Die Fehlerwertung setzt sich je nach Aufgabenszenario aus verschiedenen Verfahren zusammen.
Die anschließende Integration der Anwendung in die LernBar erfolgte über eine Integration von Schnittstellen in die Anwendung, die eine Kommunikation zwischen LernBar Player und der Anwendung erlauben. Zusätzlich wurde das Einlesen von XML Dateien ermöglicht und die Struktur einer XML Datei, zur Übergabe der nötigen Parameter, definiert. Diese XML Datei erlaubt die spätere Einbindung eines Wizards in das LernBar Studio, was im Ausblick erläutert wurde.
Die Implementierung der Anwendung beweist, dass das in dieser Bachelorarbeit aufgestellte Konzept funktioniert.
Jede erfolgreiche Software muss in einer geeigneten Art und Weise mit der Person, die sie benutzt, in Verbindung treten. Diese Schnittstelle zwischen Mensch und Maschine ist ein zentraler Baustein in der Softwareentwicklung. Eine noch so mächtige und ausgereifte Software kann ihr Potential nicht ausschöpfen, wenn Probleme und Missverständnisse bei der Kommunikation mit dem Anwender auftreten.
Bei graphischen Benutzeroberflächen erfolgt die Interaktion zwischen Benutzer und technischem System mittels graphischer Symbole, die am Bildschirm dargestellt werden. Die Oberfläche setzt sich aus verschiedenen Menüs und Steuerelementen mit dem Ziel zusammen, die zugrunde liegende Software für den Anwender bedienbar zu machen. Als Eingabegeräte dienen vor allem Maus und Tastatur. Für die Human Computer Interaction oder abgekürzt HCI (Mensch-Computer Interaktion) sind spezielle Normierungen und Anforderungen erstellt worden, die den Entwicklungsprozess unterstützten.
In dieser Arbeit wird eine graphische Benutzeroberfläche für einen Shader Viewer entworfen und implementiert. Beginnend bei ersten Skizzen und Prototypen wird der Entwicklungsprozess bis zur fertigen graphischen Oberfläche dargestellt. Probleme bei der Erstellung werden aufgezeigt und Lösungsstrategien entwickelt. Vor allem spielen Design und Usablity eine entscheidende Rolle. Verschiedene Aspekte und Alternativen, die im Entwicklungsprozess zu beachten sind, werden näher beleuchtet.
Es sollte eine Simulationsumgebung mit einem Straßennetz und eine KDNA, die Autos auf diesem Straßennetz kontrolliert, implementiert werden. Für die Simulation wurde eine einfache graphische Darstellung entwickelt auf der eine variable Anzahl Autos auf einem vorprogrammierten Straßennetz fahren. Eine KDNA steuert diese Autos über Kontrolle von Gas-, Bremse- und Steuerradpositionen, wobei Geschwindigkeits- und Richtungskontrolle unabhängig stattfinden. Bei der Analyse der KDNA für mehrere Autos traten Leistungsprobleme auf, deren Quelle genauer untersucht wurde. Die Last wurde primär durch die Kommunikation zur Verwaltung der KDNA-Tasks im AHS erzeugt.
Durch die steigende Bedeutung von multimedialen Lernmaterialien in der Lehre und in der Wirtschaft, wachsen die Anforderungen, die an die Herstellung der Materialien gestellt werden. Verwaltung, Archivierung und Wiederverwendbarkeit sind die zentralen Begriffe um die Effektivität von multimedialen Lernmaterialien zu steigern und damit auch kommerziellen Erfolg zu erzielen. Es ist effektiv wenn Lernmaterialien ein Thema nicht erneut aufarbeiten, wenn es bereits ausreichend Materialien dazu gibt. Vorhandene Materialien können genutzt werden und sparen somit Ressourcen, die ansonsten zur Herstellung neuer Materialien genutzt werden müssten. In dieser Arbeit werden Metadaten als Mittel eingesetzt, um die Effektivität zu steigern. Dabei soll vor allem der Mehrwert durch die Verwendung von Metadaten deutlich gemacht werden. Eine Analyse aktueller Autorensysteme soll zeigen, wie Metadaten bereits eingesetzt werden und wo Probleme existieren. Die Stärken und Schwächen der untersuchten Autorensysteme werden für die Anforderungsanalyse einer Erweiterung des Autorensystems LernBar verwendet. Um den Mehrwert der Metadaten deutlich zu machen, soll der gesamte Autorenprozess innerhalb der LernBar erweitert werden. Das heißt, dass der gesamte Ablauf, vom Erfassen bis zum Verwenden der Metadaten, abgebildet wird. Im Fokus der Erweiterung steht die Unterstützung des Autors bei der Erstellung von Lernmaterialien. Vorlagen und automatisierte Vorgänge dienen der Bedienbarkeit der neuen Funktionen.
Diese Arbeit zeigt, dass die optimale Verteilung von Individuen in Gruppen unter Beachtung ihrer Zeitpräferenzen ein NP-schweres Problem ist. Daher liegt es Nahe, dass für große Teilnehmerzahlen eine optimale Lösung nicht in praxistauglicher Zeit berechnet werden kann. Hier kann eine geeignete Heuristik Abhilfe schaffen.
Da dieses Problem in Universitäten für Studierende bei der Zuteilung der Übungsgruppen für Hunderte von Teilnehmern jedes Semester aufs Neue gelöst werden muss, macht es Sinn, dabei eine rechnergestützte Lösung einzusetzen.
In dieser Arbeit werden die gängigsten in Deutschland und insbesondere an der Goethe-Universität Frankfurt am Main verwendeten Gruppeneinteilungssysteme untersucht. Alle aktuell eingesetzten Lösungen weisen offensichtliche Mängel auf. In dieser Arbeit wird analysiert, weshalb es dazu kommt und gezeigt, wie diese Mängel vermieden werden können. Außerdem werden Kriterien entwickelt und diskutiert, die ein gutes Gruppeneinteilungssystem erfüllen sollte.
Es wird beschrieben, inwiefern eine gute mit einer Heuristik schnell berechenbare approximative Lösung des Gruppeneinteilungsproblems besser als eine perfekte Lösung sein könnte. Mehrere Heuristiken werden verglichen und eine für dieses Problem gut passende wird entwickelt und implementiert. Mithilfe der Beispielimplementierung und anhand anonymisierter Anmeldedaten für die Veranstaltungen aus vergangenen Jahren wird gezeigt, welche Ergebnisse bei dem Wechsel zu einem solchen System erreicht werden können.
Weiterhin wird analysiert, wie ein solches Gruppeneinteilungssystem an die anderen an Universitäten eingesetzten digitalen Systeme angekoppelt werden kann. Das ist notwendig, um zu vermeiden, dass die redundanten Studierendendaten doppelt gepflegt werden müssen. Somit werden Konsistenz und Korrektheit der Daten bei dem Einsatz eines neuen Systems gefördert.
Abschließend wird ein Ausblick in die Zukunft der Gruppeneinteilungssysteme gegeben und beschrieben, welche Aspekte in diesem Bereich weiterhin wichtig sein könnten.
Die vorliegende Bachelorarbeit untersucht die Möglichkeiten der mobilen Produktion und Verwaltung von Web- und Multimedia-Inhalten, welche mit geografischen Koordinaten verknüpft sind.
Durch die stetig wachsende Verbreitung mobiler Geräte wie Smartphones, Tablets oder Netbooks und der damit in Anspruch genommenen Verfügbarkeit von mobilen Internetzugängen in Form von WLAN, GPRS, UMTS oder LTE, wird die gemeinsame Erstellung und Verwaltung von geolokalisierten Inhalten durch Teilnehmer einer Interessengruppe ermöglicht.
Besonders Inhalte deren Standort relevant ist, können von automatisierter Lokalisierung profitieren. Durch Ortungsmechanismen können Daten bei ihrer Erstellung oder Bearbeitung automatisch mit dem Standort des Geräts versehen werden. So lassen sich zum einen geografische Daten sammeln und zum anderen Inhalte auf unkomplizierte Art und Weise mit dem Standort des Autors zum Zeitpunkt ihrer Erstellung verknüpfen.
Darüber hinaus können Anwender abhängig von ihrem Aufenthaltsort Informationen über ihre Umgebung abrufen, ohne zuvor in einer Kartenansicht zu ihrer aktuellen Position navigieren zu müssen.
Die vorliegende Arbeit behandelt sowohl das Erhalten als auch das Erzeugen multimedialer Inhalte in Abhängigkeit von ihren geografischen Koordinaten. Die technische Realisierung dieses Konzepts findet mit Hilfe der frei verfügbaren MediaWiki-Software[1] als Content-Management-System sowie einer, für mobile Geräte optimierten Webseite als Frontend statt.
Der Umfang der Arbeit umfasst neben dem Entwurf eines Konzepts und der ausführlichen Beschreibung einer möglichen Implementierung eine Einführung in die Grundlagen der verwendeten Komponenten. Zuletzt sollen ein Fazit und ein Ausblick Konzept und Realisierung kritisch betrachten, um einen Einblick in vorhandene Potenziale der Lösung zu bieten.
In der Arbeit wird das Certainty-Tool, eine Erweiterung für den Unity-basierten Teil des Stolperwege Projektes, vorgestellt. Dieses verfolgt die Idee des VAnnotatoR weiter und erlaubt die Visualisierung von informationeller Ungewissheit der im Stolperwege-Praktikum digital rekonstruierten Gebäude. Dabei inkorporiert das Tool das Konzept hinter BIM (Building Information Modelling), eine neuartige Methode der Planung in der AEC-Branche, welches ein Selbstbewusstsein von Informationen für Teile eines Gebäudes ermöglicht. Dabei werden im Certainty-Tool Stufen der informationellen Ungewissheit entwickelt und diese auf Teile des Gebäudes zugewiesen. Das Tool wird anhand einer digitalen Rekonstruktion des zerstörten Rothschild-Palais vorgestellt. Des Weiteren wurde eine Evaluation basierend auf der Usability Metric for User Experience durchgeführt und weiterführende Entwicklungen und Verbesserungen des Tools diskutiert.
Interactive Gorilla
(2010)
Beeindruckt von einer auf Annäherung reagierenden Dinosaurier-Animation des Brüsseler Naturkundemuseums, entstand die Idee einen noch komplexeren interaktiven Gorilla zu entwerfen. Der Gorilla soll dabei auf einer großen Leinwand dargestellt werden und die Besucher können mit diesem anhand ihrer Position interagieren, worauf er seine Tätigkeit und Gestik an diese anpasst.
Da keine Umsetzung, die durch gezielte Anpassungen das gewünschte Ergebnis liefern würde, vorhanden war, wurde das System im Rahmen dieser Arbeit angefertigt. Der Aufbau lässt sich dabei in drei große Module aufteilen, die auf den Ergebnissen des vorherigen Moduls arbeiten.
Zuerst wurde ein System entwickelt, mit dem es möglich ist die Besucher im Raum zu erfassen und festzustellen an welchen Positionen sie sich aufhalten. Diese Informationen werden von einer Verhaltenssimulation weiterverarbeitet. Diese ist durch einen endlichen Automaten realisiert, der auf einem Graphen operiert. Die Ergebnisse, die vom Erkennungssystem geliefert werden, sind dann dafür verantwortlich, dass sich das Verhalten entsprechend ändert. Zuletzt wird das aktuelle Verhalten des Gorillas mit Hilfe eines 3D-Modells und Animationen auf der Leinwand dargestellt.
Des weiteren sind im Rahmen dieser Arbeit zusätzliche Editoren entstanden um die Zustände des Graphen und die dadurch darzustellenden Animationen nachträglich anzupassen.
In dieser Arbeit werden 4,6 Millionen englische Tweets, welche das Keyword „Bitcoin“ enthalten, analysiert und der Zusammenhang zwischen dem Sentiment der Tweets und den Renditen des Bitcoin untersucht. Zur Bestimmung der Sentiment-Klassen werden Text-Klassifizierer mit verschiedenen Ansätzen, darunter auch auf Convolutional Neural Networks und Transformern basierende Modelle, in diesem Kontext evaluiert und optimiert. Es wird außerdem ein Meta-Modell konstruiert, welches beim Problem der Sentiment-Klassifikation von Tweets in drei Klassen {Positiv, Negativ, Neutral} in der betrachteten Domäne besser abschneidet, als die anderen begutachteten Modelle. Bezüglich des Zusammenhangs wird im Speziellen auch der Einfluss von Merkmalen der Tweets und ihrer Verfassern anhand der Distanzkorrelation untersucht.
Metahumans ist ein innovatives Framework für die Unreal Engine, das hochgradig realistische digitale Charaktere zur Verfügung stellt. Metahumans zeichnen sich durch eine vollständige Control Rig aus, die es Entwicklern ermöglicht, vorgefertigte Animationen zu nutzen und sie nach Bedarf anzupassen und zu erweitern.
Im Rahmen dieser wissenschaftlichen Arbeit wird die Anwendung von Metahumans in der virtuellen Umgebung der Unreal Engine 5 untersucht. Das Hauptziel besteht darin, die Fähigkeit eines Metahumans zu untersuchen, mittels eines herkömmlichen Virtual Reality Headsets mithilfe von Motion Tracking gesteuert und animiert zu werden. Dabei wird speziell auf die Verwendung von Inverse Kinematics als Methode zur Erzeugung möglichst natürlicher Bewegungsabläufe eingegangen. Zusätzlich wird angestrebt, die Interaktion zwischen verschiedenen Metahuman-Avataren in einer Online-Sitzung zu ermöglichen.
Um den Einfluss auf das Immersionserlebnis der Benutzerinnen und Benutzer zu analysieren, werden Probandinnen und Probanden eingeladen, ihre Nutzererfahrungen zu evaluieren. Zu diesem Zweck werden zwei vergleichbare Level erstellt: eines in der Unreal Engine mit Metahumans und das andere in Unity mit den Meta Avataren von Oculus.
Diese wissenschaftliche Untersuchung zielt darauf ab, ein umfassendes Verständnis für die Leistungsfähigkeit von Metahumans zu erlangen, insbesondere im Vergleich zu anderen Avatar-Systemen.