Refine
Year of publication
Document Type
- Article (31247)
- Part of Periodical (11950)
- Book (8338)
- Doctoral Thesis (5772)
- Part of a Book (3727)
- Working Paper (3403)
- Review (2888)
- Preprint (2413)
- Contribution to a Periodical (2399)
- Conference Proceeding (1773)
Language
- German (42764)
- English (30762)
- French (1067)
- Portuguese (723)
- Multiple languages (314)
- Croatian (302)
- Spanish (301)
- Italian (195)
- mis (174)
- Turkish (148)
Is part of the Bibliography
- no (77075) (remove)
Keywords
- Deutsch (1042)
- Literatur (816)
- taxonomy (774)
- Deutschland (543)
- Rezension (496)
- new species (459)
- Frankfurt <Main> / Universität (341)
- Rezeption (325)
- Geschichte (293)
- Übersetzung (272)
Institute
- Medizin (7882)
- Präsidium (5281)
- Physik (4995)
- Wirtschaftswissenschaften (2738)
- Extern (2661)
- Gesellschaftswissenschaften (2383)
- Biowissenschaften (2212)
- Biochemie und Chemie (1985)
- Frankfurt Institute for Advanced Studies (FIAS) (1894)
- Informatik (1735)
Konzeption und Implementierung einer Kommunikation zwischen Second Life und Web 2.0 Anwendungen
(2009)
Im Rahmen dieser Arbeit haben wir ein Konzept und einen Prototypen zur Kommunikation zwischen Second Life und Web 2.0 entwickelt.
Im Rahmen dieser Diplomarbeit wird ein Konzept und ein Prototyp zur Kommunikation zwischen Second Life und Web 2.0-Anwendungen entwickelt. In der Übung zur Veranstaltung "Einführung in das Projektmanagement" wurden Meetings in Second Life abgehalten. Dabei haben die Studierenden im Rahmen der Übung Protokolle erstellt, die sie im Internet veröffentlichten. Die Protokollierung musste immer manuell durchgeführt werden und war dadurch fehleranfällig und nicht ausfallsicher. Hier entstand der Wunsch, die Protokollierung zu automatisieren und somit den administrativen Aufwand zu reduzieren.
Im Kapitel 2 werden die Grundlagen behandelt, die für das Verständnis der Arbeit notwendig sind. Hierbei werden Second Life, sowie Blog und Wiki als Repräsentanten von Web 2.0 vorgestellt. Außerdem wird eine klare Abgrenzung zwischen diesen Technologien aufgezeigt.
Die Analyse dieser Diplomarbeit umfaÿt unter anderem die verschiedenen Möglichkeiten der Übertragung der Informationen zwischen Second Life und den Web 2.0-Anwendungen.
Im Konzept ist die Gesamtarchitektur zur Kommunikation zwischen Second Life und den Web 2.0 Anwendungen enthalten. Die Hauptsystemkomponenten, die dafür notwendig sind, stellen eine Ansammlung aus Second Life Skripten, dem HTTP Supervisor und den Wiki Bot Skripten dar. Die Second Life und die Wiki Bot Skripten sind eine Ansammlung von Unterprogrammen, die jeweils auf eine Aufgabe spezialisiert sind. Die genaue Erklärung wird im Kapitel 4 Aufgrund der Unterschiede der Web 2.0 Anwendungen wurde ein Bot eingesetzt, der eine Web 2.0 Anwendung bedient. Der HTTP Supervisor dient der Vermittlung dient der Vermittlung der Daten zwischen Second Life und der Web 2.0 Anwendung. Auÿerdem speichert er die Daten in temporäre Dateien. Der Second Life Teil des Programms dient der Steuerung des gesamten Systes.
Durch die prototypische Umsetzung ist die Durchführbarkeit bewiesen, die Daten aus Second Life herauszuführen und im MediaWiki zu speichern.
Lernplattformen sind E-Learning-Systeme, deren Kernfunktionalität die Verwaltung und Verteilung von Lernmaterialien über das World Wide Web ist. In dieser Arbeit wurde untersucht, wie durch Aufzeichnung (Tracking), Auswertung und Visualisierung von Lernaktivitäten in Lernplattformen eine Verbesserung der Lernqualität erreicht werden kann. Der Ansatzpunkt dafür war, Informationen zu Lernaktivitäten in geeigneter Weise Lehrenden und Lernenden zu präsentieren, so dass diese Rückschlüsse ziehen können, um Lernprozesse eigenständig zu optimieren. Viele Lernplattformen verfolgen bereits diesen Ansatz und verfügen deshalb über entsprechende Funktionalität.
Es mussten zwei wesentliche Fragen beantwortet werden:
1. Was müssen Lernende und Lehrende über erfolgte Lernaktivitäten wissen?
2. Wie werden Lernaktivitäten in geeigneter Weise präsentiert?
Diese Fragen wurden durch Betrachtung existierender Lernplattformen (State of the Art) sowie Befragung von Experten in Form von Interviews beantwortet. Zur Beantwortung der 2. Frage wurden außerdem allgemeine Grundlagen der Auswertung und Visualisierung von Daten verwendet sowie (zu einem geringen Teil) Auswertungs- und Visualisierungsverfahren von Systemen, die keine Lernplattformen sind. Besondere Aufmerksamkeit wurde auch dem
Datenschutz gewidmet.
Beruhend auf den gewonnenen Erkenntnissen wurde dann ein Konzept für ein Auswertungs-/Visualisierungssystem entwickelt das in verschiedenen Punkten eine Verbesserung des State of the Art darstellt.
Teile des Konzepts wurden schließlich für das webbasierte Softwaresystem LernBar, das über einen Großteil der Funktionalität einer Lernplattform verfügt, prototypisch implementiert. Durch die Implementierung soll es ermöglicht werden, das Konzept im praktischen Einsatz zu evaluieren, was im Rahmen dieser Arbeit nicht möglich war.
Diese Diplomarbeit hatte das Ziel ein Konzept zu erstellen, welches es ermöglicht, interessante und weniger interessante Artikel innerhalb eines Wikis zu erkennen und diese Informationen in verständlicher Form zur Recherche visuell bereitzustellen.
Dabei sollte das Konzept möglichst offen sein, so dass theoretisch jedes Wiki an die Visualisierung hätte angebunden werden können. Hier lag bereits das erste Problem, zum Zeitpunkt der Arbeit existieren bereits mehr als 100 unterschiedliche Wikis mit unterschiedlichen Architekturen. Wegen der Unterschiede der jeweiligen Wikisysteme entschloss man sich daher zwei Konzepte zu erarbeiten, ein allgemeines, welches wie in der gestellten Zielsetzung, das Einbinden jedes Wikis ermöglicht und ein Spezialfall, der die Vorteile einer API nutzt. Der Spezialfall wurde in ähnlicher Form in einer Implementierung umgesetzt.
Zu Beginn der Diplomarbeit mussten die unterschiedlichen Möglichkeiten der Extraktion von Informationen aus einem Wiki untersucht werden. Es hatte sich ziemlich früh herausgestellt das Links, Backlinks sowie Kategorien wichtige Indikatoren zur Bewertung eines Artikels darstellen. Damit die Bewertung der Informationen nicht nur alleine auf der Struktur eines Wikis beruht, wurde ein Thesaurus zur unterstützenden Bewertung miteinbezogen. Dieser lieferte durchgehend gute Ergebnisse, wobei - wie erwartet - der Thesaurus sehr schnell an seine Grenzen gekommen war, insbesondere wenn man die Anzahl der Artikel eines großen Wikis mit der Anzahl der Wörter die im Thesaurus gespeichert sind vergleicht.
Die extrahierten und gewichteten Informationen wurden im zweiten Schritt visualisiert, dabei hatte sich der Radial-Graph als eine gute Lösung zur Darstellung der Informationen herausgestellt. Neben einem Graphen mit gewichteten Knoten wurden in der Visualisierung unterschiedliche Ansichten der extrahierten Daten bereitgestellt: eine Autorenansicht, die zum gesuchten Artikel die Autoren darstellt, eine semantische Ansicht, die Wortbeziehungen veranschaulicht sowie eine Artikelansicht, die den Nutzer neben den gewichteten Artikeln auch wie gewohnt in einer Wiki lesen lässt.
Klassische Bildmanipulation spielt sich meist im Zweidimensionalen, also in der reinen Bild-ebene ab. So werden beispielsweise Objekte aus Fotos entfernt, indem die dahinterliegende Struktur nachgezeichnet wird, oder es werden mehrere Teilbilder zu einem neuen, verfälschten Motiv zusammengesetzt. Bei der sogenannten Bildretuschierung werden unschöne Bereiche übermalt, um einen besseren Gesamteindruck zu erreichen. All diese Manipulationen haben im Grunde das gleiche Ziel: Das Erstellen einer möglichst realistischen Verfälschung der darge-stellten Szene indem die eigentlich dreidimensionalen Elemente in 2D imitiert werden.
Ziel dieser Arbeit ist es, von der reinen Zweidimensionalität eines Bildes Abstand zu nehmen und ein neues Verfahren zu entwickeln, Manipulationen im wirklichen 3D-Inhalt des Fotogra-fierten vorzunehmen. Dazu wird die klassische Bildmanipulation mit aktuellen Verfahren aus dem Bereich Multi View Stereo verknüpft. In einem ersten Schritt wird aus einer Fotoserie ein 3D-Modell mit passenden Texturen erstellt, welches anschließend nach Belieben manipuliert werden kann. Diese Veränderungen werden schließlich wieder in die Originalbilder übertragen, wodurch eine 3D-unterstützte Bildmanipulation realisiert wird.
Die praktische Umsetzung des vorgestellten Verfahrens basiert teilweise auf bereits vorhan-dener Software, die mit dem Ziel der Bildmanipulation neu kombiniert und durch eigene Um-setzungen ergänzt wird. So entsteht eine funktionierende Implementierung, die den kompletten Weg vom Original bis hin zum manipulierten Bild abdeckt.
Jede erfolgreiche Software muss in einer geeigneten Art und Weise mit der Person, die sie benutzt, in Verbindung treten. Diese Schnittstelle zwischen Mensch und Maschine ist ein zentraler Baustein in der Softwareentwicklung. Eine noch so mächtige und ausgereifte Software kann ihr Potential nicht ausschöpfen, wenn Probleme und Missverständnisse bei der Kommunikation mit dem Anwender auftreten.
Bei graphischen Benutzeroberflächen erfolgt die Interaktion zwischen Benutzer und technischem System mittels graphischer Symbole, die am Bildschirm dargestellt werden. Die Oberfläche setzt sich aus verschiedenen Menüs und Steuerelementen mit dem Ziel zusammen, die zugrunde liegende Software für den Anwender bedienbar zu machen. Als Eingabegeräte dienen vor allem Maus und Tastatur. Für die Human Computer Interaction oder abgekürzt HCI (Mensch-Computer Interaktion) sind spezielle Normierungen und Anforderungen erstellt worden, die den Entwicklungsprozess unterstützten.
In dieser Arbeit wird eine graphische Benutzeroberfläche für einen Shader Viewer entworfen und implementiert. Beginnend bei ersten Skizzen und Prototypen wird der Entwicklungsprozess bis zur fertigen graphischen Oberfläche dargestellt. Probleme bei der Erstellung werden aufgezeigt und Lösungsstrategien entwickelt. Vor allem spielen Design und Usablity eine entscheidende Rolle. Verschiedene Aspekte und Alternativen, die im Entwicklungsprozess zu beachten sind, werden näher beleuchtet.
Diese Arbeit beschäftigt sich mit der konkreten Erzeugung von 2-3D Visualisierung. Im Fokus steht der notwendige Prozess zur Erzeugung von Computergrafik.
Da die Computergrafik heut zu Tage wichtiger Bestandteil vieler Aufgabengebiete ist, sollte deren Nutzung auch allen Menschen zugänglich sein. In den vergangen Jahren blieb dies meist nur Leuten aus den Fachgebieten vorbehalten, aufgrund der Komplexität und des notwendigen „Know-how“ über die Thematik. Mittlerweile gilt diese Tatsache als überholt. Viele Erneuerung im Bereich von Hardware und Software haben es ermöglicht, dass selbst ungeübte Anwender in der Lage sind, ansehnliche 3D Grafiken an ihren PCs bei der Arbeit oder zu Hause zu erzeugen. Dies soll ebenfalls das Ziel dieser Arbeit sein. Dazu wird in eine Applikation erstellt die die Visualisierung von graphischen Primitiven unter der Verwendug von Microsofts DirectX leicht und schnell ermöglichen soll. Als Basis dient ein Rendering-Framework, welches auf einheitliches Schnittstellenkonzept setzt, um die strikte Trennung zwischen Anwender- und Fachwissen zu vollziehen.
Weitere Schwerpunkte dieser Arbeit liegen im Bereich der Modellierung von graphischen Primtiven und der Nutzung von Shadern. Dazu wird in der Modellierung der Import von archivierten Modellen umgesetzt. Die Nutzung von Shadern soll soweit vereinfacht werden, dass Anwender auf Shader beleibig zugreifen können. Dies soll durch eine Verknüpfung zwischen Shadern und Modellen erfolgen, die ebenfalls im Bereich der Modellierung erfolgt.
Shader zur Bildbearbeitung
(2009)
In den letzten Jahren haben Grafikkarten eine starke Veränderung erfahren. Anfangs war lediglich die Darstellung vorberechneter Primitive möglich, mittlerweile lassen sich Vertex- und Pixelshader komplett frei programmieren. Die Spezialisierung auf den Rendervorgang hat die GPUs (Graphics Processing Units) zu massiv-parallelen Prozessoren wachsen lassen, die unter optimaler Ausnutzung ein Vielfaches der Rechenleistung aktueller CPUs erreichen. Die programmierbaren Shader haben Grafikkarten in der letzten Zeit vermehrt als weiteren Prozessor für General Purpose-Programmierung werden lassen.
Aktuelle Bildbearbeitungsprogramme zeigen, dass sich die Tendenz Richtung GPU bewegt, so wird sich auch in dieser Arbeit die enorme Rechenleistung der GPU für die Bildbearbeitung zu nutzen gemacht. Bildfilter lassen sich als Pixelshader realisieren und ermöglichen so die Ausführung direkt auf der GPU. Das vorgestellte Framework SForge wurde mit dem Ziel entwickelt, zu einem bestehenden Framework kompatibel zu sein. Als bestehendes Framework wurde auf AForge zurückgegriffen. Mit SForge können bestehende und eigene Bildfilter direkt auf der GPU ausgeführt werden, aber auch die Konvertierung von Farbräumen und Farbsystemen wurden realisiert. Das Framework arbeitet floatbasierend. Somit können auch HDR-Daten verarbeitet werden, um beispielsweise Tonemapping anzuwenden. Filter mit Parametern lassen sich über einen optionalen Dialog interaktiv ändern und modifizieren das Resultat in Echtzeit.
In erstem Teil der Arbeit wurde der Begriff Drehbuch in Hinsicht auf die Erstellung von eLearning Kursen erläutert und eLearning Inhalte auf ihre typischen Merkmale untersucht. Dabei war es wichtig zu verstehen, ob und wie die kooperative Arbeit an Inhalten in gängigen Textbearbeitungsprogrammen unterstützt wird und welche Vor- und Nachteile der jeweilige Editor aufweist. Wie sich herausgestellt hat, setzen bestehende Lösungen auf Auszeichnungen von Textbausteinen und der Kursstruktur mit Hilfe von speziellen Makros, so dass beim Transformieren des Kurses diese wiedererkannt werden können. Leider sind diese Lösungen auf einen bestimmten Editor spezialisiert und betrachten die kooperativen Aspekte der Arbeit an Inhalten nicht.
Da das Drehbuch in einem Textbearbeitungsprogramm erstellt wird, ist die Möglichkeit der Wahl von einem Editor für die Autoren vorteilhaft. Deshalb sieht der Lösungsansatz in meiner Arbeit vor, dass die Umsetzung des Drehbuches nicht auf einen bestimmten Editor beschränkt ist und dass für jeden Editor kooperative Bearbeitung ermöglicht wird. Dies wird zum einen durch Verwendung eines Versionskontrollesystems und zum anderen durch die kooperativen Eigenschaften der Editoren erreicht.
Das Transformieren eines Drehbuches zu einem eLearning Kurs wurde einheitlich gestaltet, da HTML als ein gemeinsames Format der Ausgabe von Editoren ausgewählt wurde. In der Implementierung des Lösungsansatzes konnte am Beispiel des Autorensprogramms LernBar die Unterstützung von bereits drei Editoren erreicht werden.
Einige Einschränkungen sind bei der Verwendung dieser Lösung zu beachten. Bei den Veränderungen in der HTML-Ausgabe der Editoren sind möglicherweise auch Anpassungen im Programm vorzunehmen. Die Verwendung von Tabellen impliziert, dass ihre Struktur durch den Autor nicht geändert wird, was durchaus auch versehentlich passieren kann. Bei der Erstellung von Tests ist eine umfassende Validierung empfehlenswert, damit die Tests wie erwartet durchgeführt werden können. Es wurden in der Implementierung nur einige Testtypen umgesetzt und möglicherweise sind einige Tests nicht für die Erfassung im Drehbuch geeignet. In dem Fall müssen sie in den verwendeten Autorenprogramm direkt erstellt werden.
Die rasante Entwicklung von Internettechnologien wird sicherlich neue Möglichkeiten sowohl für die kooperative Arbeit, als auch für Textbearbeitungsfunktionalitäten anbieten. Allein im Jahr 2010 wurden mehrere Neuerungen auf dem Markt von Online-Editoren eingeführt. Microsoft hat eine Online-Version1 von seiner Office-Suite veröffentlicht und damit eine neue Alternative zu Google Docs angeboten. In Google-Docs werden nahezu im monatlichen Takt neue nützliche Funktionen implementiert, die sowohl die Textverarbeitung als auch die Kooperation verbessern.
Das Internet als Informationsmedium ist Plattform für eine nie dagewesene Menge an Information, die für einen einzelnen Menschen nicht mehr zu überblicken ist.
Moderne Web-Suchmaschinen greifen auf die Methoden des Information Retrieval zurück um einem NutzerWerkzeuge anzubieten die zu ihrem Informationsbedürfnis relevanten Dokumente im Internet zu finden. Visualisierungen können diese Dokumentenmenge effektiver durch den Nutzer verarbeitbar machen. Eine komplexe Suchanfrage zu formulieren oder ein Suchergebnis nach bestimmten Kriterien zu filtern ist jedoch heute noch denjenigen vorbehalten die bereit sind, die erweiterten Funktionen der Suchmaschinen zu lernen.
Der in dieser Arbeit vorgestellte Ansatz möchte durch die Kombination der Visualisierung, die einen effektiven Überblick über den Suchergebnisraum gibt, mit den mächtigen Filtermöglichkeiten moderner Suchmaschinen die einfache Filterung von Suchergebnismengen durch ein Direct Maniuplation Interface ermöglichen.
Interactive Gorilla
(2010)
Beeindruckt von einer auf Annäherung reagierenden Dinosaurier-Animation des Brüsseler Naturkundemuseums, entstand die Idee einen noch komplexeren interaktiven Gorilla zu entwerfen. Der Gorilla soll dabei auf einer großen Leinwand dargestellt werden und die Besucher können mit diesem anhand ihrer Position interagieren, worauf er seine Tätigkeit und Gestik an diese anpasst.
Da keine Umsetzung, die durch gezielte Anpassungen das gewünschte Ergebnis liefern würde, vorhanden war, wurde das System im Rahmen dieser Arbeit angefertigt. Der Aufbau lässt sich dabei in drei große Module aufteilen, die auf den Ergebnissen des vorherigen Moduls arbeiten.
Zuerst wurde ein System entwickelt, mit dem es möglich ist die Besucher im Raum zu erfassen und festzustellen an welchen Positionen sie sich aufhalten. Diese Informationen werden von einer Verhaltenssimulation weiterverarbeitet. Diese ist durch einen endlichen Automaten realisiert, der auf einem Graphen operiert. Die Ergebnisse, die vom Erkennungssystem geliefert werden, sind dann dafür verantwortlich, dass sich das Verhalten entsprechend ändert. Zuletzt wird das aktuelle Verhalten des Gorillas mit Hilfe eines 3D-Modells und Animationen auf der Leinwand dargestellt.
Des weiteren sind im Rahmen dieser Arbeit zusätzliche Editoren entstanden um die Zustände des Graphen und die dadurch darzustellenden Animationen nachträglich anzupassen.
Point-Based Animation
(2011)
Die punktbasierte Animation ist ein relativ neues Gebiet im Bereich der Animation. Der Unterschied zu den weit verbreiteten polygonnetzbasierten Verfahren liegt darin, dass zwischen den einzelnen Punkten, welche die Oberfläche des zu animierenden Objekts definieren, keine Topologieinformationen vorhanden sind. Mit polygonnetzbasierten Techniken ist keine Volumensimulation möglich, da keine Volumeninformationen vorhanden sind. Die aktuellen Verfahren im punktbasierten Feld ermöglichen die Animation von Flüssigkeiten, Rauch oder Explosionseffekten. In dieser Arbeit wird eine Animation auf Grundlage eines zur Verfügung gestellten Punktmodells ausgeführt. Um zu gewährleisten, dass die Animation korrekt nach den Gesetzen der Physik arbeitet, wird eine Physikengine zu Hilfe genommen. Diese beiden Bereiche werden in dieser Arbeit miteinander verknüpft. Zunächst werden einfache Simulationen im Sektor der starren Körperdynamik durchgeführt. Dabei werden einzelne Punkte unter Einfluss der Gravitation auf eine Ebene fallen gelassen. Vor allem die Berechnung der Kollision mit der Ebene und der Punkte untereinander ist hierbei interessant. Um sehenswerte physikalische Effekte animieren zu können, muss die Elastizität mit berücksichtigt werden. DesWeiteren wird in der Arbeit die Animation elastischer Körper verwirklicht. Hierbei wird eine an den Ecken fixierte elastische Ebene animiert. Einzelne Punkte können aus diesem elastischen Objekt herausgezogen werden, in Folge dessen sich das Objekt selbst repariert. Ebenfalls kann ein herausgeschnittner Punkt wieder in das Objekt eingefügt werden.
Durch die steigende Bedeutung von multimedialen Lernmaterialien in der Lehre und in der Wirtschaft, wachsen die Anforderungen, die an die Herstellung der Materialien gestellt werden. Verwaltung, Archivierung und Wiederverwendbarkeit sind die zentralen Begriffe um die Effektivität von multimedialen Lernmaterialien zu steigern und damit auch kommerziellen Erfolg zu erzielen. Es ist effektiv wenn Lernmaterialien ein Thema nicht erneut aufarbeiten, wenn es bereits ausreichend Materialien dazu gibt. Vorhandene Materialien können genutzt werden und sparen somit Ressourcen, die ansonsten zur Herstellung neuer Materialien genutzt werden müssten. In dieser Arbeit werden Metadaten als Mittel eingesetzt, um die Effektivität zu steigern. Dabei soll vor allem der Mehrwert durch die Verwendung von Metadaten deutlich gemacht werden. Eine Analyse aktueller Autorensysteme soll zeigen, wie Metadaten bereits eingesetzt werden und wo Probleme existieren. Die Stärken und Schwächen der untersuchten Autorensysteme werden für die Anforderungsanalyse einer Erweiterung des Autorensystems LernBar verwendet. Um den Mehrwert der Metadaten deutlich zu machen, soll der gesamte Autorenprozess innerhalb der LernBar erweitert werden. Das heißt, dass der gesamte Ablauf, vom Erfassen bis zum Verwenden der Metadaten, abgebildet wird. Im Fokus der Erweiterung steht die Unterstützung des Autors bei der Erstellung von Lernmaterialien. Vorlagen und automatisierte Vorgänge dienen der Bedienbarkeit der neuen Funktionen.
Im Rahmen dieser Bachelorarbeit werden verschiedene Non-Photorealistic Rendering Verfahren zur Darstellung von rekonstruierten Artefakten, im Bereich der Paläontologie, beschrieben und implementiert. Hauptsächlich arbeiten die vorgestellten Verfahren im zweidimensionalen Bildraum, um beispielsweise Kanten in Bildern zu detektieren. Hierbei bedienen wir uns sogenannter Normal- und Depthmaps, welche als Zwischenresultate dienen, um die nötigen Informationen zu sammeln, welche zur Erkennung von Kanten im Bild notwendig sind. Neben der Kantendetektion werden NPR Verfahren genutzt, um skizzenhafte Illustrationen zu erzeugen, welche per Hand gezeichnete wissenschaftliche bzw. technische Illustrationen nachahmen und somit (halb)automatisieren sollen. Mithilfe von (programmierbaren) Shadern werden dann spezielle Texturen auf die Oberflächen der Modelle gelegt, um eine skizzenhafte Darstellung zu erzeugen. Solche Verfahren erleichtern demnach die aufwändige Arbeit der Künstler, welche gewöhnlich viel Zeit für ihre Illustrationen benötigen.
Die vorliegende Bachelorarbeit untersucht die Möglichkeiten der mobilen Produktion und Verwaltung von Web- und Multimedia-Inhalten, welche mit geografischen Koordinaten verknüpft sind.
Durch die stetig wachsende Verbreitung mobiler Geräte wie Smartphones, Tablets oder Netbooks und der damit in Anspruch genommenen Verfügbarkeit von mobilen Internetzugängen in Form von WLAN, GPRS, UMTS oder LTE, wird die gemeinsame Erstellung und Verwaltung von geolokalisierten Inhalten durch Teilnehmer einer Interessengruppe ermöglicht.
Besonders Inhalte deren Standort relevant ist, können von automatisierter Lokalisierung profitieren. Durch Ortungsmechanismen können Daten bei ihrer Erstellung oder Bearbeitung automatisch mit dem Standort des Geräts versehen werden. So lassen sich zum einen geografische Daten sammeln und zum anderen Inhalte auf unkomplizierte Art und Weise mit dem Standort des Autors zum Zeitpunkt ihrer Erstellung verknüpfen.
Darüber hinaus können Anwender abhängig von ihrem Aufenthaltsort Informationen über ihre Umgebung abrufen, ohne zuvor in einer Kartenansicht zu ihrer aktuellen Position navigieren zu müssen.
Die vorliegende Arbeit behandelt sowohl das Erhalten als auch das Erzeugen multimedialer Inhalte in Abhängigkeit von ihren geografischen Koordinaten. Die technische Realisierung dieses Konzepts findet mit Hilfe der frei verfügbaren MediaWiki-Software[1] als Content-Management-System sowie einer, für mobile Geräte optimierten Webseite als Frontend statt.
Der Umfang der Arbeit umfasst neben dem Entwurf eines Konzepts und der ausführlichen Beschreibung einer möglichen Implementierung eine Einführung in die Grundlagen der verwendeten Komponenten. Zuletzt sollen ein Fazit und ein Ausblick Konzept und Realisierung kritisch betrachten, um einen Einblick in vorhandene Potenziale der Lösung zu bieten.
In dieser Arbeit wurden Web Browser bezüglich ihrer Eignung zum Erstellen interaktiver eLearning Fragen untersucht. Vor dem Hintergrund der speziellen Charakteristika von mobilen Endgeräten wurden insbesondere die Aspekte der Beschränkung auf standardisierte Technologien, sowie die Clientseitigkeit der Applikation hervorgehoben. Es konnte eine Grundlage geschaffen werden, die das Erstellen von interaktiven Fragen nur mit Hilfe von HTML und Javascript ermöglicht und es wurde ein weitgehender Verzicht auf serverseitige Komponenten erreicht.
Scenegraph LoD-Analyse
(2012)
Level of Detail-Verfahren sind in der Computergrafik alltäglich und allgegenwärtig. Da das Thema seit Jahren ein aktiv bearbeitetes Feld in der Wissenschaft ist, existiert eine extreme Fülle an Verfahren mit unterschiedlichen Ansätzen oder Verfeinerungen. Es ist jedoch sehr schwer, die Unterschiede zwischen den Verfahren zu quantifizieren. Jede Arbeit nutzt ihre eigenen Testfälle und Methoden, wodurch sich selten echte Rückschlüsse auf Vergleiche zu anderen Verfahren ziehen lassen. Um hier einen Ansatz zur Lösung dieses Problems zu präsentieren, wird vorgeschlagen, ein allgemein nutzbares Testframework zu erstellen, das geeignet ist, LOD-Verfahren auf unterschiedliche Aspekte hin zu untersuchen. Es wird eine Reihe von konkreten Tests und ein dazugehöriges Programm als Rahmenwerk vorgestellt werden, das einen solchen Ansatz implementiert. Diese Testimplementierung ist bewusst einfach gehalten, sie wird jedoch einen guten Überblick darüber geben, welche Probleme es zu lösen gilt und worauf dabei geachtet werden muss.
In der heutigen Zeit werden viele Anwendungen als Webanwendungen entwickelt, weil man sie schneller auf den Markt werfen kann. Neue Methoden wurden entwickelt um den Softwareentwicklungsprozess zu verschlanken, um damit noch schneller und öfter eine Produkt auf den Markt zu bringen. Diese Methoden erschweren die Arbeit von manuellen Tester ungemein. Sie müssen jetzt noch schneller und noch öfter testen.
Um dieser Miesere entgegenzuwirken wurden Testautomatisierungsmechanismen und Testautomatisierungswerkzeuge entwickelt. In dieser Arbeit wollte ich zeigen, dass Testautomatisierung in bestehenden Projekten nachträglich noch eingefügt werden kann. Und das diese für eine verbesserte Qualität des Produktes sorgen kann.
Ich habe in dieser Arbeit den Testfallkatalog für das Produkt „Email4Tablet“ der Firma Deutsche Telekom AG zu 70% mit dem Testwerkzeug Selenium automatisiert.
Lernmodule wie Web Based Trainings (WBT) sind eine Methode um eLearning Inhalte anzubieten. Web Based Trainings basieren per Definition auf dem Word Wide Web (WWW). Durch die Entwicklung des Web zum Web 2.0 sind für Benutzer neue Möglichkeiten entstanden am Web teilzunehmen. Dadurch wurde auch das eLearning beeinflusst. In dieser Arbeit werden die Innovationen für den Autorenprozess von Web Based Trainings betrachtet. Ihre Nützlichkeit soll anhand dem Autorensystem LernBar deutlich gemacht werden. Die Analyse weiterer Autorensysteme verdeutlicht den aktuellen Stand. Die Stärken und Schwächen der untersuchten Autorensysteme werden für die Anforderungsanalyse einer web-basierten LernBar verwendet. Das Konzept für Web 2.0 Based Training beschreibt den neuen Autorenprozess in der LernBar. Das neue Konzept ermöglicht Flexibilität, die zu neuen Einsatzszenarien führt. Schwierigkeiten in der Umsetzung werden diskutiert.
In dieser Bachelorarbeit werden Modelle, mit einer hohen Anzahl an Vertices, mittels CPU und GPU geclustered und die Performance der hierzu verwendeten Algorithmen miteinander verglichen. Die Nutzung der GPU findet hierbei unter Verwendung von OpenGL statt. Zunächst werden Grundlagen von Clustering, die für die später implementierten Algorithmen wichtig sind, geklärt. Zusätzlich werden Prozesse erkärt mit denen die Ergebnisse der, auf der GPU ausgeführten, Algorithmen, auf die CPU zurückgeführt werden können. Anschließend erfolgt eine Beschreibung der implementierten Algorithmen sowie eine Erklärung ihrer Funktionsweise. Abschließend wurde ein Benchmarking der Algorithmen vorgenommen, um ihre Laufzeiten miteinander zu vergleichen.
In der Realität setzen sich Farben aus einzelnen Wellen zusammen, welche in Kombination mit zugehörigen Wellenlängen und Intensitäten bei Menschen den Sinneseindruck einer Farbe hervorrufen. Die Computergraphik definert Farben mit dem RGB-Modell, in dem durch 3 Grundfarben (Rot, Grün, Blau) der darstellbare Farbbereich festgelegt wird. Ein Spektrum (genauer Spectral Power Distribution, SPD) ermöglicht eine variablere, physikalisch exaktere Darstellung von Farbe, kann aber nicht einfach mit dem RGB-Modell verwendet werden. Das von der Commission Internationale de l'Eclairage definierte XYZ-Farbmodell erlaubt es mit Wellenlängen zu rechnen, und bildet die Grundlage der Beleuchtungsrechnung mit Spektren.
Farben mittels Spektren zu ermitteln ist die Paradedisziplin von Raytracern, da der Berechnungsaufwand für Echtzeitanwendungen meist zu groß ist. Die neueste Graphikkarten-Generation kann große Datenmengen effizient parallel verarbeiten, und es wurden entsprechende Ansätze gesucht, wellenlängenbasiert zu rechnen. Das hier vorgestellte System erlaubt auf Grundlage von physikalischen Formeln einzelne Intensitäten zu beeinflusen, welche in Kombination mit den Tristimulus-Werten des Menschen in dem XYZ-Farbmodell abgebildet werden können. Diese XYZ-Koordinaten können anschließend in das RGBModell transformiert werden.
Im Gegensatz zu bestehenden Systemen wird direkt mit Spektren gearbeitet und diese nicht von einer RGB-Farbe abgeleitet, so dass für bestimmte Effekte eine höhere Genauigkeit entsteht. Durch die Verwendung einer SPD ist es möglich, Interferenzeffekte an dünnen Schichten und CDs in einem Polygon-Renderer zu visualisieren. In dieser Arbeit wird eine Berechnung von mehrlagigen dünnen Schichten mit komplexen Brechungsindizes präsentiert und ein LOD-System vorgestellt, welches es ermöglicht den Berechnungsaufwand frei zu skalieren.
In der Literatur jüdischer Autoren des letzten Jahrhunderts steht die Darstellung des Martyriums in drei spezifischen, sehr unterschiedlichen Kontexten: in Werken der literarischen Moderne, die die Übernahme der religiösen Traditionen verhandeln - hierzu gehört wohl auch noch Philip Roths Erzählung - im Umkreis der Literatur in und nach Auschwitz und in literarischen Texten zur Geschichte oder Befindlichkeit des Staates Israel. Am Beispiel eines literarischen Bezugs auf die Märtyrertradition aus jedem dieser Umfelder - im Werk Franz Kafkas, Nelly Sachs' und David Grossmans - gilt es nunmehr, jeweils die Korrelation von Verschriftung und interreligiösem Subtext herauszulesen.
Hypercholesterolemia and elevated homocysteine concentrations are associated with cardiovascular risk. Previous studies have demonstrated a cholesterol-lowering effect of red yeast rice (RYR) supplements which contained 5 to 10 mg of monacolin K. We hypothesized that the intake of a low monacolin K dose may likewise reduce low-density lipoprotein-cholesterol (LDL-C) and other plasma lipids. In secondary analyses, we tested the homocysteine lowering effect of folic acid, which was also included in the study preparation. Therefore, we conducted a randomized, double-blind, and placebo-controlled intervention study. One hundred forty-two nonstatin-treated participants with hypercholesterolemia (LDL-C ≥ 4.14 ≤ 5.69 mmol/L) were randomized to the supplement group with RYR or the placebo group. Participants of the supplement group consumed 3 mg monacolin K and 200 μg folic acid per day. A significant (P < .001) reduction of LDL-C (-14.8%), total cholesterol (-11.2%), and homocysteine (-12.5%) was determined in the supplement group after 12 weeks. A total of 51% of the participants treated with RYR achieved the limit of LDL-C <4.14 mmol/L advised and 26% reached the threshold level of homocysteine <10 μmol/L. No significant changes were exhibited within the placebo group. Other parameters remained unchanged and no intolerances or serious adverse events were observed. In conclusion, we demonstrated that a low dose of daily 3 mg monacolin K from RYR reduces the concentration of LDL-C; a risk factor for cardiovascular diseases.
OBJECTIVES: Identification of sufficiently trustworthy top 5 list recommendations from the US Choosing Wisely campaign.
SETTING: Not applicable.
PARTICIPANTS: All top 5 list recommendations available from the American Board of Internal Medicine Foundation website.
MAIN OUTCOME MEASURES/INTERVENTIONS: Compilation of US top 5 lists and search for current German highly trustworthy (S3) guidelines. Extraction of guideline recommendations, including grade of recommendation (GoR), for suggestions comparable to top 5 list recommendations. For recommendations without guideline equivalents, the methodological quality of the top 5 list development process was assessed using criteria similar to that used to judge guidelines, and relevant meta-literature was identified in cited references. Judgement of sufficient trustworthiness of top 5 list recommendations was based either on an 'A' GoR of guideline equivalents or on high methodological quality and citation of relevant meta-literature.
RESULTS: 412 top 5 list recommendations were identified. For 75 (18%), equivalents were found in current German S3 guidelines. 44 of these recommendations were associated with an 'A' GoR, or a strong recommendation based on strong evidence, and 26 had a 'B' or a 'C' GoR. No GoR was provided for 5 recommendations. 337 recommendations had no equivalent in the German S3 guidelines. The methodological quality of the development process was high and relevant meta-literature was cited for 87 top 5 list recommendations. For a further 36, either the methodological quality was high without any meta-literature citations or meta-literature citations existed but the methodological quality was lacking. For the remaining 214 recommendations, either the methodological quality was lacking and no literature was cited or the methodological quality was generally unsatisfactory.
CONCLUSIONS: 131 of current US top 5 list recommendations were found to be sufficiently trustworthy. For a substantial number of current US top 5 list recommendations, their trustworthiness remains unclear. Methodological requirements for developing top 5 lists are recommended.
OBJECTIVE: To compare efficacy, safety, and tolerability of an oral enzyme combination (OEC) containing proteolytic enzymes and bioflavonoid vs diclofenac (DIC), a nonselective nonsteroidal anti-inflammatory drug in the treatment of osteoarthritis of the knee.
MATERIALS AND METHODS: This was an individual patient-level pooled reanalysis of patient-reported data from prospective, randomized, double-blind, parallel-group studies in adult patients with moderate-to-severe osteoarthritis of the knee treated for at least 3 weeks with OEC or DIC. Appropriate trials were identified with a systemic literature and database search. Data were extracted from the original case-report forms and reanalyzed by a blinded evaluation committee. The primary end point was the improvement of the Lequesne algofunctional index (LAFI) score at study end vs baseline. Secondary end points addressed LAFI response rates, treatment-related pain-intensity changes, adverse events, and laboratory parameters.
RESULTS: Six trials were identified that enrolled in total 774 patients, of whom 759 had post-baseline data for safety analysis, 697 (n=348/349 with OEC/DIC) for intent to treat, 524 for per protocol efficacy analysis, and 500 for laboratory evaluation. LAFI scores - the primary efficacy end point - decreased comparably with both treatments and improved with both treatments significantly vs baseline (OEC 12.6±2.4 to 9.1±3.9, DIC 12.7±2.4 to 9.1±4.2, effect size 0.9/0.88; P<0.001 for each). In parallel, movement-related 11-point numeric rating-scale pain intensity improved significantly (P<0.001) and comparably with both treatments from baseline (6.4±1.9/6.6±1.8) to study end (3.8±2.7/3.9±2.5). Overall, 55/81 OEC/DIC patients of the safety-analysis population (14.7%/21.1%, P=0.022) reported 90/133 treatment-emergent adverse events, followed by premature treatment discontinuations in 22/39 patients (5.9%/10.2%, P=0.030). Changes in laboratory parameters were significantly less with OEC vs DIC: on average 18.8% vs 86.3% of patients presented a decrease with respect to hemoglobin, hematocrit, or erythrocyte count (P<0.001), and 28.2% vs 72.6% showed an increase in AST, ALT, or GGT (P<0.001).
CONCLUSION: When compared with DIC, OEC showed comparable efficacy and a superior tolerability/safety profile associated with a significantly lower risk of treatment-emergent adverse events, related study discontinuations, and changes in laboratory parameters.
Phenytoin (PHT), valproic acid, and modern antiepileptic drugs (AEDs), eg, remacemide, loreclezole, and safinamide, are only effective within a maximum of 70%-80% of epileptic patients, and in many cases the clinical use of AEDs is restricted by their side effects. Therefore, a continuous need remains to discover innovative chemical entities for the development of active and safer AEDs. Ligands targeting central histamine H3 receptors (H3Rs) for epilepsy might be a promising therapeutic approach. To determine the potential of H3Rs ligands as new AEDs, we recently reported that no anticonvulsant effects were observed for the (S)-2-(4-(3-(piperidin-1-yl)propoxy)benzylamino)propanamide (1). In continuation of our research, we asked whether anticonvulsant differences in activities will be observed for its R-enantiomer, namely, (R)-2-(4-(3-(piperidin-1-yl)propoxy)benzylamino)propaneamide (2) and analogs thereof, in maximum electroshock (MES)-, pentylenetetrazole (PTZ)-, and strychnine (STR)-induced convulsion models in rats having PHT and valproic acid (VPA) as reference AEDs. Unlike the S-enantiomer (1), the results show that animals pretreated intraperitoneally (ip) with the R-enantiomer 2 (10 mg/kg) were moderately protected in MES and STR induced models, whereas proconvulsant effect was observed for the same ligand in PTZ-induced convulsion models. However, animals pretreated with intraperitoneal doses of 5, 10, or 15 mg/kg of structurally bulkier (R)-enantiomer (3), in which 3-piperidinopropan-1-ol in ligand 2 was replaced by (4-(3-(piperidin-1-yl)propoxy)phenyl)methanol, and its (S)-enantiomer (4) significantly and in a dose-dependent manner reduced convulsions or exhibited full protection in MES and PTZ convulsions model, respectively. Interestingly, the protective effects observed for the (R)-enantiomer (3) in MES model were significantly greater than those of the standard H3R inverse agonist/antagonist pitolisant, comparable with those observed for PHT, and reversed when rats were pretreated with the selective H3R agonist R-(α)-methyl-histamine. Comparisons of the observed antagonistic in vitro affinities among the ligands 1-6 revealed profound stereoselectivity at human H3Rs with varying preferences for this receptor subtype. Moreover, the in vivo anticonvulsant effects observed in this study for ligands 1-6 showed stereoselectivity in different convulsion models in male adult rats.
Wird von Terrorismusbekämpfung gesprochen, ist der Fokus auf nationale Problemlösungen gerichtet. Bei modernen Formen des Terrorismus handelt es sich zumeist um transnationale Phänomene, denen auch transnational begegnet werden muss. Zwei Beispiele zeigen die Probleme, die aus einer nationalen Beschränkung entstehen...
Radicalisation is a phenomenon that has been striking not only in parts of Asia and Africa but also in the heart of Europe. While the number of Muslims in Germany is estimated by 4,7 millions (5,8%), 70% of the almost 900,000 asylum-seekers have arrived in recent years are believed to be Muslims. It is undeniable that there is discrimination in Germany, and it is equally undeniable that more on issues of integration and conflict prevention should be done. Thus, could effective integration processes prevent radicalisation of the Muslim youth in Europe?
Donald Trump hat die Polittechnologie des Populismus auf die Spitze getrieben und geradezu perfektioniert. Hier sind die mehr oder minder appetitlichen Zutaten seines Hyperpopulismus, die allesamt zur Anwendung kamen. Keine dieser Ingredienzen ist gänzlich neu, sondern sie wurden auch schon von europäischen Rechtspopulisten hinlänglich erprobt. Dieses Gemisch bedarf eines fruchtbaren Resonanzbodens, um seine betörende Wirkung zu entfalten. Es muss auf eine gesellschaftliche Disposition treffen. Je nach Kontext spielen unterschiedliche sozio-kulturelle und ökonomische Faktoren eine Rolle, weshalb sich die Populismen auch von Land zu Land in Form und Inhalt durchaus unterscheiden. Dennoch gibt es so etwas wie einen Kern an populistischen Lehrsätzen und Mechanismen, die man sich vergegenwärtigen sollte, um auch in der medialen Berichterstattung nicht stets aufs Neue in die aufgestellten Fallen zu tappen.
Die Vegetation schwermetallreicher Böden der Briloner Hochfläche wird als Cardaminopsis halleri-Festuca nigrescens-Coenon und Cladonia rangiformis-Silene humilis-Coenon (Violetalia calaminariae Br.-Bl. et Tx. 1943, Violetea calaminariae Br.-Bl. et Tx. 1943) beschrieben. Ihre Synökologie und Synsystematik werden diskutiert.
Ökologische und floristische Unterschiede zwischen zwei Typen von Felsstandorten mit Asplenium septentrionale werden behandelt. Auf Grundlage der Standortsbedingungen und der floristischen Struktur können in den Westkarpaten das Woodsio ilvensis-Asplenietum septentrionalis R.Tx. 1937 auf mehr mesophilen und basenreichen Felsen sowie die stärker xerotherme und azidophile Asplenium septentrionale-Gesellschaft unterschieden werden.
Es wird ein Überblick über Kalkmagerrasen- und Felsband-Gesellschaften im thüringischen Teil des mittleren Werratals gegeben. Auf steilen und größtenteils primär waldfreien Standorten sind vor allem Sesleria varia-reiche Kalkmagerrasen (Seslerio-Xerobromenion, Seslerio-Mesobromenion) ausgebildet, deren unterschiedliche floristische Zusammensetzung von der Höhenlage sowie von der Dynamik und Gründigkeit der Böden bestimmt wird. Ausschließlich als Ersatzgesellschaft von Kalkbuchenwäldern, meist durch Beweidung entstanden, kommt das Gentiano-Koelerietum (Eu-Mesobromenion) vor, das in drei edaphisch bedingte Subassoziationen gegliedert werden kann. Im Kontakt zu den Kalkmagerrasen stehen an besonders steilen, südlich exponierten Felsabbrüchen oft Festucion pallentis-Bestände.
Die regional eigenständigen Saumgesellschaften saurer, oligo- bis mesotropher Waldstandorte folgender Ass.-Gruppen werden herausgestellt: Melampyretum pratensis, Melampyretum sylvatici, Hieracieta, Lathyretum linifolii, Teucrietum scorodoniae, Holcetum mollis, Luzuletum sylvaticae, Pteridietum aquilini und Blechnetum spicantis (Tab. 1-12). Europaweit ergeben sich mehr als 20 Assoziationen bzw. Gesellschaften. Die Ordnung Melampyro-Holcetalia mollis fasst diese in 2 Verbänden mit 5 Unterverbänden zusammen. Neu typisierte Syntaxa: Holco-Melampyretum sylvatici, Melampyro-Hieracietum sabaudi, Veronico-Hieracietum laevigati, Veronica-Lathyretum linifolii, Holco-Equisetetum sylvatici, Avenello-Luzuletum sylvaticae, Holco-, Trientali-Pteridietum aquilini, Osmundo-Blechnetum spicantis, Veronico-Hieracienion laevigati und Holco-Pteridienion aquilini.
Forstgesellschaften mit vom Menschen künstlich geförderten Baumarten (v.a. Fichte und Kiefer) haben seit der ersten Hälfte des letzten Jahrhunderts einen hohen Anteil an der forstwirtschaftlich genutzten Fläche im deutschen Mittelgebirgsraum. Es wird erörtert, warum es unter Anwendung pflanzensoziologischer Methoden konsequent und zweckmäßig erscheint, auch rein anthropogene Gehölzbestände als Assoziationen zu beschreiben, soweit sie eigene, von anderen Pflanzengesellschaften abgrenzbare Artenverbindungen aufweisen. Das Galio harcynici-Culto-Piceetum als Ersatzgesellschaft vor allem der bodensauren Hainsimsen-Buchenwälder in den nord- und mitteldeutschen Mittelgebirgen wird vorgestellt und vegetationskundlich charakterisiert. Der Harzer Labkraut-Fichtenforst besitzt eine floristisch-soziologisch eigenständige Artenkombination und zeichnet sich durch forstspezifische Strukturmerkmale aus. Es werden fünf Untergesellschaften differenziert und deren Standorte kurz beschrieben. Beobachtungen von guter Naturverjüngung der Fichte lassen erwarten, daß die künstlich geförderte Gehölzart heute auch außerhalb ihres natürlichen Verbreitungsgebietes zum festen Bestandteil der Vegetation zu rechnen ist.
Die ersten sieben Jahre der Vegetationsentwicklung eines 40jährigen Kiefernstangenholzes und eines 130jährigen Kiefern-Eichen-Altbestandes nach einer Kalkdüngungsmaßnahme werden dargestellt. In einem Jungbestand, dessen Strauchschicht zusätzlich aufgelichtet worden war, wurde das unmittelbare Auftreten von Ruderal- und Schlagarten und ein etwas verzögertes Einwandern mesophytischer Waldarten festgestellt. Die sich schnell regenerierende Strauchschicht aus Spätblühender Traubenkirsche schränkt die floristische Dynamik nach einigen Jahren ein. Die Krautschicht der Altbestandsfläche reagierte zunächst mit dem Rückgang der dominierenden Heidelbeere; erst fünf Jahre nach der Kalkungsmaßnahme treten nach intensiver Wühlarbeit von Wildschweinen mesophytische Waldarten auf. Die Vegetation der jeweiligen Kontrollfläche ist nicht statisch, zeigt jedoch nicht die typischen kalkungsbedingten floristischen Veränderungen, die im Erscheinungsbild einer Eutrophierung gleichen. Die Ergebnisse werden vor dem Hintergrund bodenchemischer Veränderungen und der Ergebnisse aus anderen Kalkungsversuchen diskutiert; es wird eine Einschätzung zugrunde liegender populationsökologischer Prozesse vorgenommen. Unter besonderer Berücksichtigung lichter Kiefernbestände in Nordostdeutschland werden schließlich kalkungsbedingte Veränderungen der Bodenvegetation in Hinblick auf die forstliche Bewirtschaftung bewertet.