Refine
Year of publication
Document Type
- diplomthesis (222) (remove)
Has Fulltext
- yes (222)
Is part of the Bibliography
- no (222)
Keywords
- Stochastik (3)
- Diskursanalyse (2)
- RDF (2)
- Semantic Web (2)
- Soziologie (2)
- Statistik (2)
- Stochastischer Prozess (2)
- Strahltransport (2)
- Yule-Prozess (2)
- Ablenkung <Physik> (1)
Institute
- Physik (105)
- Mathematik (39)
- Informatik (29)
- Gesellschaftswissenschaften (15)
- Geowissenschaften (8)
- Wirtschaftswissenschaften (8)
- Biowissenschaften (4)
- Erziehungswissenschaften (4)
- Biochemie und Chemie (3)
- Geographie (1)
Wiki-Systeme im eLearning
(2006)
Wiki-Systeme lassen sich in den verschiedensten Anwendungsgebieten auf angenehme Weise, aufgrund ihrer Open-Source Lizenz, durch die Anreicherung entsprechender Zusatzmodule anpassen. An dieser Stelle muss jedoch bedacht werden, dass durch die Integration vermehrter Funktionen, das charakteristische Merkmal der Wiki-Systeme 'Einfachheit' an Präsenz verlieren kann. Dieses, für Wikis typische Charakteristikum ist eine nicht zu unterschätzende Stärke, da sowohl die Expansion der Enzyklopädie Wikipedia, als auch die zunehmende Anzahl bestehender Wikis im Internet geradezu Beweis dafür sind, dass keine anderen Anwendungen in diesem Verhältnis existiert haben. Würde somit das Wiki, aufgrund der Anpassung an ein vorliegendes Konzept an Einfachheit verlieren, so müssten die Beweggründe des Wiki-Einsatzes noch mal überdacht werden. Ebenso könnte in den Bereichen, in denen die Stärken von Wikis unbrauchbar sind, ein anderes System womöglich bessere Ergebnisse liefern als ein Wiki. Aus diesen Gründen sollte vor einem Wiki-Einsatz überprüft werden, ob die vorhandenen Merkmale und Funktionen eines Wikis mit den eigenen Anforderungen übereinstimmen. Die im Rahmen dieser Arbeit durchgeführte Befragung hat gezeigt, das Wikis größtenteils als Präsentationsmedium, zur gemeinsamen Texterstellung und als Informationsplattform genutzt werden. Es ist deutlich geworden, dass die Integration von Wikis im Lehrbereich geeignete Anwendung findet. Auffallend war, dass zwar bei (fast) allen Befragten Schwierigkeiten aufgetreten sind und sogar erhoffte Erwartungen teilweise nicht erfüllt wurden, dennoch war der größte Teil der Befragten mit dem Wiki-Einsatz zufrieden und bewertete diesen als positiv. Die Art der aufgetretenen Schwierigkeiten und Schwachstellen zeigt, dass den Lehrenden gewisse Anleitungen und Richtlinien für einen erfolgreichen Wiki-Einsatz fehlten. Denn Informationen zum didaktischen Rahmen - in denen Wikis eingesetzt werden können - und wie Wikis eingesetzt werden sollen, waren nicht vorhanden. Somit sollen die - in dieser Arbeit - erarbeiteten Empfehlungen und Kriterien, Lehrende zu einem optimierten Wiki-Einsatz in Lehrveranstaltungen verhelfen. Außerdem sind in dieser Arbeit Vorgaben enthalten, wie Wiki-Einsätze von Lehrenden gestaltet werden können, so dass die häufig auftretenden Probleme vermieden werden können. Die erarbeiteten Empfehlungen und Kriterien sind gleichermaßen aus den positiven, wie auch aus den negativen Erfahrungen der Befragten entstanden. Insbesondere sollen die Empfehlungen und Kriterien, die von den Befragten permanent beklagten auftretenden Schwierigkeiten und Probleme verhindern. Eine Garantie jedoch, dass die Einhaltung dieser Empfehlungen und Kriterien zu einem erfolgreichen Wiki-Einsatz führen und ob keine relevanten Kriterien unbeachtet gelassen sind, kann an dieser Stelle nicht gegeben werden. Ob sich nun die Probleme, die sich mit Wiki-Einsätzen wiederholt ergeben haben, durch die Befolgung dieser Kriterien und Empfehlungen vermeiden lassen, könnte im Rahmen einer nachfolgenden Diplomarbeit untersucht werden, in der Wiki- Einsätze, begleitet werden. Weiterhin sollte im Rahmen einer weiteren Arbeit die Situation der Lernenden und die Auswirkung auf das Lernverhalten in Verbindung mit Wiki-Systemen evaluiert werden, so dass einige Thesen dieser Arbeit belegt oder gar widerlegt werden können.
In der Realität setzen sich Farben aus einzelnen Wellen zusammen, welche in Kombination mit zugehörigen Wellenlängen und Intensitäten bei Menschen den Sinneseindruck einer Farbe hervorrufen. Die Computergraphik definert Farben mit dem RGB-Modell, in dem durch 3 Grundfarben (Rot, Grün, Blau) der darstellbare Farbbereich festgelegt wird. Ein Spektrum (genauer Spectral Power Distribution, SPD) ermöglicht eine variablere, physikalisch exaktere Darstellung von Farbe, kann aber nicht einfach mit dem RGB-Modell verwendet werden. Das von der Commission Internationale de l'Eclairage definierte XYZ-Farbmodell erlaubt es mit Wellenlängen zu rechnen, und bildet die Grundlage der Beleuchtungsrechnung mit Spektren.
Farben mittels Spektren zu ermitteln ist die Paradedisziplin von Raytracern, da der Berechnungsaufwand für Echtzeitanwendungen meist zu groß ist. Die neueste Graphikkarten-Generation kann große Datenmengen effizient parallel verarbeiten, und es wurden entsprechende Ansätze gesucht, wellenlängenbasiert zu rechnen. Das hier vorgestellte System erlaubt auf Grundlage von physikalischen Formeln einzelne Intensitäten zu beeinflusen, welche in Kombination mit den Tristimulus-Werten des Menschen in dem XYZ-Farbmodell abgebildet werden können. Diese XYZ-Koordinaten können anschließend in das RGBModell transformiert werden.
Im Gegensatz zu bestehenden Systemen wird direkt mit Spektren gearbeitet und diese nicht von einer RGB-Farbe abgeleitet, so dass für bestimmte Effekte eine höhere Genauigkeit entsteht. Durch die Verwendung einer SPD ist es möglich, Interferenzeffekte an dünnen Schichten und CDs in einem Polygon-Renderer zu visualisieren. In dieser Arbeit wird eine Berechnung von mehrlagigen dünnen Schichten mit komplexen Brechungsindizes präsentiert und ein LOD-System vorgestellt, welches es ermöglicht den Berechnungsaufwand frei zu skalieren.
Durch zunehmende Vernetzung steigt auch das Interesse elektronische Wahlen mit Hilfe kryptographischer Methoden auf Rechnernetzen zu verwirklichen. In der folgendern Arbeit werden Wahlschemata behandelt, deren Ziel es ist, die gesamte Wahl auf einem Rechnernetz durchzuführen. Die Arbeit beschränkt sich auf Wahlen mit zwei Wahlvorschlägen. Auf Wahlen mit drei oder mehr Wahlvorschlägen wird nicht eingegangen. Im ersten Kapitel wird eine Einleitung in die elektronischen Wahlen gegeben. Im zweiten Kapitel wird das verwendete Modell eines Wahlschemas und die Anforderungen, bezüglich der die Wahlschemata untersucht werden, vorgestellt. Im dritten Kapitel werden die kryptographische Methoden für die folgenden Kapitel vorgestellt. Im vierten Kapitel werden zwei Wahlschemata betrachtet, deren Ansatz es ist, die Stimmen mit Hilfe von Schwellenwerten auf mehrere Behörden zu verteilen. Die Sicherheit der Wahlschemata in diesem Kapitel basiert auf dem diskreten Logarithmus. Im fünften Kapitel werden weitere Wahlschemata betrachet, bei denen die Wähler mit Hilfe von Verschlüsselungsmethoden ihre Stimmen an die Behörden senden. Die Sicherheit dieser Schemata basiert auf dem Wurzelziehen modulo einer zusammengesetzten Zahl mit unbekannter Faktorisierung. In diesem Kapitel lernen wir auch das erste quittungsfreie Wahlschema kennen. Im sechsten Kapitel werden Wahlschemata betrachtet, die das Konzept eines Mixes benutzen. Auch in diesem Kapitel lernen wir ein quittungsfreies Wahlschema kennen.
Der Theorieteil befaßt sich mit den bisher vorliegenden Erkenntnissen über Lerntypen. Anregungen zu dieser Untersuchung kamen von den Neurophysiologen ECCELS J.C. und POSNER M.I.,von den Pädagogischen Psychologen WEIDENMANN B und GAAL J., von dem Pädagogen VESTER F. und dem Psychologen PAIVIO A., auf dessen Thesen von den drei Kodierungssystemen (1964) die Forschungsansätze zu diesem Thema beruhen. Darüber hinaus wurde der kommerzielle Hirndominanztest von HERMANN N. und einige Arbeiten von Vertretern des Neurolinguistischen Progammierens berücksichtigt.
Untersucht wurde die Auswirkungen der visuellen, auditiven und kinästhetischen Unterrichtsformen auf zwölf Jugendliche im Alter zwischen acht und zwölf Jahren. Im Anschluß an die Untersuchung wurde den Kindern ein Fragebogen vorgelegt, mit dessen Hilfe die präferierten Sinneskanäle erfaßt werden sollten. Dies schließt insofern eine Forschungslücke, als hier zum erstenmal die Modalitäten von Probanden festgestellt wurden. Dies befähigt zur Beantwortung der Frage: Wie unterrichte ich wen?
Die Kinder hatten am Jugendtraining des Licher Golfclubs teilgenommen und standen in den letzten drei Wochen der Saison 1996 für den Test zur Verfügung. Der Lernerfolg wurde ausschließlich durch einen Vergleich der Leistung vor und nach dem Unterricht ermittelt. Hierbei wurde beobachtet, daß jedes Kind eine bestimmte Reihenfolge von Lernmodalitäten bevorzugt. Ein für diese Situation entwickelter Fragebogen stimmte in 7 von 12 Fällen mit den Testergebnissen überein. Die Lernleistung kann bei Ansprache der präferierten Sinnesmodalitäten optimiert werden.
Die Ergebnisse haben gezeigt, daß Zusammenhänge zwischen der Instruktion präferierter Sinnesmodalitäten und der Lernleistung bestehen.
Der letzte Teil der Arbeit befaßt sich mit der praktischen Umsetzbarkeit der Ergebnisse und ihren möglichen Auswirkungen auf die Kommunikation.
Gitter sind diskrete additive Untergruppen des Rn. Praktische Bedeutung erlangte die Gittertheorie durch effziente Algorithmen zur Gitterbasenreduktion, mit deren Hilfe Optimierungsprobleme gelöst werden können. Der erste dieser Algorithmen wurde von Lenstra, Lenstra und Lovasz entwickelt. Schnorr und Euchner entwickelten effizientere Algorithmen. Sie untersuchten die Güte der Reduktion anhand von Rucksack-Problemen. Bei einem Rucksack-Problem der Dimension n müssen aus einer gegebenen Menge von n Gewichten diejenigen bestimmt werden, die zusammen einen gegeben Rucksack genau ausfüllen. Die Algorithmen von Schnorr und Euchner lösen fast alle Rucksack-Probleme der Dimensionen 42 bis 66. Meine neuen verbesserten Algorithmen lösen einen noch größeren Anteil der Rucksack-Probleme in kürzerer Rechenzeit. Gleichzeitig sind sie in Dimensionen 103 bis 151. Coster, Joux, LaMacchia. Odlyzko, Schnorr und Stern geben eine untere Schranke für die Größe der Gewichte von Rucksack-Problemen an, die fast immer gelöst werden können. Die Gewichte werden zufällig aus einem Intervall natüurlicher Zahlen gewählt. Dieses Ergebnis erweitere ich auf k-fache Rucksack-Probleme. Weiterhin kann für für die Wahl jedes Gewichtes eine beliebige Menge ganzer Zahlen festgelegt werden. Ebenso sind Mengen mit nur einem Element zulässig.
Wir untersuchen das Verhalten von unären stochastischen endlichen Automaten mit Hilfe von Methoden der Theorie der homogenen Markovketten. Für unäre stochastische Automaten mit E-isoliertem Cutpoint lambda und n Zuständen bestimmen wir eine obere Schranke für die Größe des zyklischen Teils eines optimalen äquivalenten DFAs. Ein Ergebnis von Milani und Pighizzini zeigt bereits, dass für den zyklischen Teil des äquivalenten DFAs O(e exp(sqrt(n ln n))) Zustände ausreichen und in unendlich vielen Fällen auch Omega(eexp(sqrt(n ln n))) Zustände benötigt werden, wobei die Größe von E keine Rolle spielt. Wir zeigen die obere Schranke n exp (1/2E) für die Größe des zyklischen Teils und weisen nach, dass der optimale DFA für jedes c < 1 in unendlich vielen Fällen mehr als n exp (c/2E) viele Zustände im zyklischen Teil benötigt. Wir weisen auch nach, dass es eine unendliche Familie endlicher unärer Sprachen gibt, für die es jeweils einen PFA mit n Zuständen und 1/4-isoliertem Cutpoint gibt, während der optimale, DFA e exp(Omega x sqrt(n ln n)) Zustände im Anfangspfad benötigt.
Gegenstand der Untersuchungen dieser Arbeit ist der Einfangprozess der radiativen Rekombination gewesen. Dabei ist zwischen dem Einfang in die inneren Schalen, K- und L- Schale, und dem Einfang in die äußeren Schalen unterschieden worden. Für die inneren Schalen ist neben dem Einfang in nacktes auch die Untersuchung des Einfangs in wasserstoffartiges Uran möglich gewesen. Es hat sich herausgestellt, dass die experimentellen Ergebnisse fur den Einfang in die inneren Schalen von U92+ gut mit den theoretischen Erwartungen übereinstimmen. Dagegen haben sich für den Einfang in U91+ leichte Abweichungen bei Einfang in die K- Schale gezeigt. Was diese Abweichung verursacht hat, konnte nicht geklärt werden. In Uran koppeln die Elektronen der innersten Schalen aufgrund der Größe der Kernladung über jj- Kopplung, weswegen die Wechselwirkung der Elektronen untereinander keine wesentliche Rolle spielen sollte. Dennoch scheint das bereits in der K- Schale vorhandene Elektron die Einfangwahrscheinlichkeit eines zweiten Elektrons zu vermindern. Das Verhältnis U92+/U91+ entspricht nicht dem erwarteten Wert von nahezu 2, sondern ist mit 2,28 etwas größer. Bisherige, jedoch bei hohen Energien durchgefuhrte, Experimente haben in guter Übereinstimmung mit den theoretischen Vorhersagen gestanden. Daraus lässt sich schließen, dass dieser Effekt erst bei sehr kleinen Stoßenergien auftritt, wie sie im Kuhler vorliegen. An dieser Stelle sei auch daran erinnert, dass der Stoß zwischen Elektron und Ion senkrecht erfolgt und somit der Detektor die emittierten Photonen unter 90 Grad beobachtet. Dies ist gerade der Winkel unter dem der Wirkungsquerschnitt maximal ist. Im Gegensatz dazu zeigen die Daten für die L- Schale in beiden Fällen im Bereich ihrer Fehlerbalken die gleichen Ergebnisse. Dies ist nicht verwunderlich, da aufgrund der hohen Kernladungszahl von Uran ein Elektron in der K- Schale keinen bedeutenden Abschirmeffekt für die L- Schale verursacht. Daher bleiben die Einfangszustände für den Einfang in die L- Schale im Gegensatz zum Einfang in die K- Schale bei U91+ nahezu identisch. Beim Vergleich der experimentellen Daten mit einer nichtrelativistischen und relativistischen Theorie ist sowohl für die Verhältnisse der K-RR Linie mit den beiden L-RR Linien als auch bei den L-RR Linien untereinander stets eine bessere Übereinstimmung mit der relativistischen Theorie gezeigt worden. Dabei sei daraufhingewiesen, dass die Werte dieser beiden Theorien deutlich voneinander abweichen. Wähhrend die nichtrelativistische Theorie für das Verhältnis K-RR/L-RRj=1=2 beispielsweise einen Wert von 2,12 voraussagt, ergibt die vollständig relativistische Theorie einen Wert von 1,41. Der experimentelle Wert von 1,23 +- 0,03 zeigt nun eine deutlich bessere Übereinstimmung mit der relativistischen Theorie. Daraus kann geschlossen werden, dass auch bei Stoßenergien nahe null für die tiefstliegenden Zustände relativistische Effekte vorhanden sind, die in den Rechnungen berücksichtigt werden müssen. Die Untersuchung des Einfangs in die äußeren Schalen hat dagegen weniger Übereinstimmende Ergebnisse gebracht. Zwar hat sich gezeigt, dass die Form der experimentellen Spektren durch verzögerte Lyman alpha Übergänge erklärt werden kann, allerdings ist die Intensität der niederenergetischen Ausläufer in der Simulationen nicht erreicht worden. Rechnungen mit verschiedenen Anfangszuständen haben gezeigt, dass durch die Hinzunahme von Zuständen mit höherer Hauptquantenzahl n die Zahl der verspäteten Ereignisse erhöht werden kann. Jedoch nicht in dem Maße, dass eine Wiedergabe der experimentellen Spektren möglich würde. Rechnungen mit unterschiedlichen Bedingungen haben gezeigt, dass auch Zustände mit kleinen Übergangswahrscheinlichkeiten Einfluß auf die zeitliche Entwicklung der Kaskaden haben. Dagegen wird die Kaskade durch Ausschluss von Zuständen mit einem Verzweigungsverhältnis kleiner als 1% kaum beeinflußtt. Weiterhin macht es keinen Unterschied ob die Wegstrecke mit Schrittweiten von 1x10 exp (-14) oder 1x10 exp (-11) gerechnet wird. Größere Zeitschritte führen zu Abweichungen. In einem weiteren Teil der Auswertung sind die l- Zustände untersucht worden, die zu den verspäteten Ereignissen beitragen. Dabei hat sich herausgestellt, dass die Zustände um l = n/3 den Hauptbeitrag zu den verspäteten Übergängen leisten. Bei den Yrastkaskaden lässt sich ein deutlicher Anstieg im Bereich von 30 ns beobachten, jedoch ist ihr Anteil im Vergleich zu den l = n/3 Zuständen deutlich geringer. Ihr Einfluss auf das Spektrum würde sich erst zu noch späteren Zeitpunkten bemerkbar machen. Der Beitrag verzögerter Ereignisse zu den Ausläufern der Lyman alpha - Linien ist nur aufgrund der relativistischen Raumwinkeltransformation verstärkt zu erkennen. Die effektiv vorhandene Intensität dieser verzögerten Ereignisse wird über die Raumwinkelkorrektur um ein Vielfaches erhöht. Tatsächlich folgt aus der Kaskadenrechnung ein Anteil verzögerter Übergänge an der gesamten Emission von nur 0,1 %, während er unter Berücksichtigung der Detektorgeometrie (Raumwinkelkorrektur für einen Beobachtungswinkel von 0 Grad) 4,6 % beträgt. Allerdings macht der im Experiment gemesse Anteil der verzögerten Emission 73,9 % der Gesamtemission aus. Er liegt also mehr als eine Größenordnung über dem Anteil, der sich aus der Kaskadenrechnung mit anschließender Simulation der Detektorgeometrie ergibt. Mit der momentanen Theorie ist es nicht möglich, die experimentellen Ergebnisse zu reproduzieren. Dies kann daran liegen, dass die Anfangsbesetzung gerade in den hohen Zuständen zu gering angesetzt wird. Da diese erst nach einigen Nanosekunden zu den Lyman alpha Übergängen beitragen, könnte eine höhere Anfangsbesetzung dieser Zustände zu einer Verstärkung der Linien beitragen. Es ist bisher noch nicht gelungen, eine Aussage darüber zu treffen, wodurch diese Ratenüberhöhung zustande kommt und welche physikalischen Aspekte dabei eine Rolle spielen. Möglicherweise ist die Verwendung der Stobbe-Theorie zur Berechnung der Rekombinationsraten freier Elektronen in hohe Rydbergzustände nicht richtig, weil es wegen der äußeren Felder im Kühler keine wirklich freien Elektronen in hohen Zuständen gibt. Zur detaillierteren Untersuchung dieses Phänomens hat im September 2004 die Gruppe um M. Pajek ein Experiment am Elektronenkühler durchgeführt [66]. Als Projektilionen sind wieder nackte Uranionen verwendet worden, allerdings bei einer Energie von 23 MeV. Detektoren sind unter 0 Grad und 180 Grad montiert worden. Während des Messzyklusses ist die Kühlerspannung variiert worden, um die Elektronen einmal schneller und einmal langsamer als die Ionen fliegen zu lassen. Auf diese Art und Weise sollte herausgefunden werden, ob bei Relativenergien ungleich null ebenfalls eine Ratenüberhöhung auftritt. Erwartet wird, dass dies aufgrund der höheren Relativenergie nicht der Fall ist. Eine Auswertung der Daten liegt derzeit noch nicht vor.
Im Sommer 1992 wurde an Abschnitten der Rur und ihres Nebenflusses Inde (Niederrheinische Bucht, Nordrhein-Westfalen) die Ufervegetation pflanzensoziologisch untersucht und die lokale Verbreitung von Neophyten mit Hilfe einer speziell entwickelten Methode der Feinkartierung erfaßt.
Die Ufervegetation der Rur weist nur in zwei Teilbereichen natürliche bzw. naturnahe Vegetationstypen der Flußufer in guter Ausbildung auf; hier treten flächenhaft Gesellschaften der Convolvuletalia, des Phragmition und Sparganio-Glycerion, des Bidention und des Salicion purpureae auf. Die übrigen Bereiche der Rur und ebenso die Inde sind ausgebaut und durch relativ intensiv "gepflegte", botanisch verarmte Ufer gekennzeichnet.
Insgesamt wurden knapp 60 Kilometer Uferstrecke abgegangen und dabei etwa 30 neophytische Sippen nachgewiesen; hiervon wurden 15 ausgewählte Sippen systematisch kartiert. Für etwa ein Dutzend im Untersuchungsgebiet häufigere Neophyten wurden Verbreitungskarten erstellt und diskutiert.
Parallel zur Feinkartierung von Neophyten wurden im Gelände und aus schriftlichen Quellen verschiedene Formen anthropogener Standortveränderungen erfaßt, um Hinweise auf Zusammenhänge mit der Ausbreitung der Neophyten zu erhalten.
Aus einer Sichtung der diesbezüglichen Literatur ergaben sich zwei Gruppen von Hypothesen darüber, welcher Typ von anthropogenen Einflüssen die Ausbreitung von Neophyten an Flüssen besonders begünstigt: von einigen Autoren wurden direkte mechanische Eingriffe im Uferbereich, wie Kanalisierung und Auwaldrodung, als maßgeblich betrachtet, von anderen Autoren wurde dagegen in den chemischen Belastungen des Flußwassers der Hauptfaktor vermutet. Es wurde in der vorliegenden Arbeit aber davon ausgegangen, daß die Daten, die bisher zu Aussagen über die Neophyten-Problematik an Flußufern herangezogen wurden, im wesentlichen auf zu kleinmaßstäbigen Kartierungen und auf zu spezieller Betrachtung einzelner neophytischer Arten beruhten.
Deshalb wurde in der vorliegenden Arbeit versucht, zusätzlich zur Feinkartierung einen neuen methodischen Ansatz zu entwickeln, um die Bedeutung, die Neophyten insgesamt in der Vegetation eines bestimmten Flußabschnitts haben, synthetisch zu analysieren.
Es wurde ein "Neophyten-Index" als Maß des Neophytenreichtums ermittelt; er bezieht sich immer auf einen bestimmten Flußabschnitt und ergibt sich aus der Gesamtzahl und Häufigkeit der in dem Abschnitt gefundenen neophytischen Sippen. Der Neophyten-Index als synthetischer Ausdruck floristischer Veränderungen ermöglichte einen groben Vergleich mit Daten zu anthropogenen Standortveränderungen. Die Probleme derartiger schematischer Berechnungen wurden diskutiert; alle Aussagen über die Ergebnisse mußten vorbehaltlich der Notwendigkeit kritischer Interpretation erfolgen.
Eine wichtige Rolle bei den Untersuchungen spielte die Frage des Status von Neophyten-Vorkommen; wesentlich war auch die Kenntnis der aktuellen Phase der Einwanderung eines Neophyten in das Untersuchungsgebiet. Vorkommen mit zufälligem Charakter, also unbeständige oder vorpostenartige Vorkommen, erlauben nur begrenzt ökologische Aussagen. Deshalb waren nicht alle gefundenen Neophyten gleichermaßen für die Berechnung eines Neophyten-Index verwendbar. Neben Beobachtungen im Gelände waren zur Beurteilung dieser Fragen umfangreiche Auswertungen der Literatur notwendig. Als Ergebnis wurde also zunächst sippenbezogen die Geschichte der Ausbreitung rekonstruiert, sowie die gegenwärtige Verbreitung und der Status im Untersuchungsgebiet ermittelt. Acht Neophyten wurden dann als geeignet befunden, in die Berechnung des Neophyten-Index einzugehen.
Es ergaben sich deutliche Unterschiede im Neophyten-Index verschiedener Flußabschnitte: für den unteren Bereich der Rur unterhalb der Einmündung der Inde und besonders für die Inde selbst ergaben sich deutlich höhere Neophyten-Indices als für den oberen Bereich der Rur.
Entgegen häufigen allgemeinen Angaben in der Literatur gab es im Untersuchungsgebiet keinen erkennbaren Zusammenhang zwischen dem Ausbauzustand eines Flußabschnittes und dessen Neophytenreichtum; einige naturnah mäandrierende Abschnitte der Rur waren deutlich neophytenreicher als andere, regulierte Abschnitte.
Ebensowenig war im gewählten Maßstabsbereich ein Zusammenhang zwischen der Beschattung der Ufer durch Gehölze und dem Neophytenreichtum festzustellen; der gesamte obere Bereich der Rur war trotz geringer Beschattung relativ neophytenarm.
Eine sehr auffällige Koinzidenz besteht jedoch zwischen Neophyten-Index und der Gewässergüteklasse der Teilabschnitte; die Inde ist durch vor allem industrielle Abwässer erheblich verschmutzt, während die Rur oberhalb der Einmündung der Inde nur geringere Belastungen aufzuweisen hat. Eine deutliche Abhängigkeit der Neophyten-Ausbreitung von der Gewässerbelastung wurde in der Literatur bisher zwar von einigen Autoren vermutet, jedoch nie durch exakte Kartierungen in geeigneten Untersuchungsgebieten nachgewiesen.
Die hier nachgewiesene Koinzidenz zwischen Gewässerbelastung und Neophytenreichtum muß mit Vorsicht interpretiert werden; weitere Faktoren unbekannter Bedeutung kommen hinzu. Als Einschleppungsort bzw. Ausbreitungszentrum von Neophyten könnte etwa die Industrieregion im Einzugsgebiet der Inde - oberhalb des Untersuchungsgebiets - eine Rolle spielen. Auch ein Einfluß des Abflußregimes auf die Ausbreitung von Neophyten kann nach den vorliegenden Daten nicht ausgeschlossen werden.
Abschließend werden die konkreten Standortfaktoren Wasserhaushalt und Bodensubstrat bezüglich ihrer noch weitgehend im Dunkeln liegenden Abwandlung durch anthropogene Einflüsse diskutiert.
Untersuchungen von evolutionären Algorithmen zum Training neuronaler Netze in der Sprachverarbeitung
(1997)
Im Rahmen der vorliegenden Diplomarbeit wurde die Leistungsfähigkeit von evolutionären Algorithmen zum Training von RNN untersucht und mit gradientenbasierten Trainingsalgorithmen verglichen. Die Zielsetzung war dabei im besonderen die Prüfung der Verwendbarkeit in der Sprachverarbeitung, speziell der Spracherkennung. Zunächst wurde anhand eines Prädiktionsproblems die prinzipielle Leistungsfähigkeit von EA untersucht, indem ein MLP mit unterschiedlichen evolutionären Algorithmen trainiert wurde. Verschiedene Varianten von GA und ES sind an diesem Beispiel getestet und miteinander verglichen worden. Im Rahmen der Untersuchungen an GA stellte sich heraus, daß eine Mindestgenauigkeit der Quantisierung zur Lösung erforderlich ist. Es zeigt sich, daß die Genauigkeit der Approximation mit abnehmendem Quantisierungsfehler besser wird. Damit ist eine Behandlung dieses Problems mit grob quantisierten Gewichten nachteilig. Demgegenüber profitiert ES sowohl in der Approximationsgenauigkeit, als auch in der Konvergenzgeschwindigkeit von der direkten Darstellung der Objektvariablen als reelle Zahlen. Weiterhin zeigte sich bei ES, daß die Genauigkeit einer Lösung auch von der Populationsgröße abhängig ist, da mit wachsender Populationsgröße der Parameterraum besser abgetastet werden kann. Im Vergleich mit ES benötigten GA längere Konvergenzzeiten und bedingten zudem aufgrund der Codierung und Decodierung einen höheren Rechenaufwand als ES, so daß die Untersuchungen an RNN nur mit ES durchgeführt wurden. Zunächst wurde mit dem Latching-Problem eine, in der Komplexität eng begrenzte, Klassifikationsaufgabe mit Zeitabhängigkeiten untersucht. Die zur Verfügung gestellte Information war bei diesem Beispiel sehr gering, da der Fehler nur am Ende einer Mustersequenz berechnet wurde. Es stellte sich heraus, daß selbst bei dieser sehr einfachen Aufgabenstellung die gradientenbasierten Verfahren nach dem Überschreiten einer maximalen Mustersequenzlänge T keine Lösung finden konnten. Im Gegensatz dazu war ES in der Lage, das Problem für alle gemessenen Variationen des Parameters T zu lösen. Erst wenn während des Trainings dem Gradientenverfahren zusätzliche Informationen durch Fehlereinspeisung zur Verfügung gestellt wurde, hatte der BPTT-Algorithmus die selbe Leistungsfähigkeit. Als weiteres Experiment mit Zeitabhängigkeiten wurde das Automaton-Problem un- tersucht, welches mittels eines RNN gelöst werden sollte. Bei diesem Problem wurde besonderer Wert auf die Untersuchung des Konvergenzverhaltens bei Änderungen der Parameter von ES gelegt. Die Untersuchungen ergaben, daß die einzelnen Parameter in komplexer Weise miteinander interagieren und nur eine gute Abstimmung aller Parameter aufeinander eine befriedigende Leistung in Bezug auf Konvergenzgeschwindigkeit und Klassifikationsergebnis erbringt. Wie bei dem Latching-Problem wurde der Fehler nur am Ende einer Mustersequenz berechnet. Dies bewirkt, daß der BPTT-Algorithmus bereits bei Sequenzlängen von T = 27 nicht mehr in der Lage ist, die Zeitabhängigkeiten in dem Gradienten zu repräsentieren. Mit ES dagegen konnten RNN trainiert werden, die in der Lage sind, Sequenzlängen bis zu T = 41 richtig zu klassifizieren. Die Untersuchungen bestätigen, daß der beschränkende Faktor in erster Linie der Trainingsalgorithmus und nicht das Netzwerksparadigma ist. Die Simulationsexperimente mit zeitnormierten Sprachdaten zeigen, daß mit ES prinzipiell höhere Erkennungsleistungen als mit dem gradientenbasierten Algorithmus des BPTT erzielt werden können. Jedoch nimmt schon bei der Klassifikation der Zahlwörter Zwei und Drei die Klassifikationsleistung mit zunehmender Sequenzlänge ab. Es erfordert eine drastische Vergrößerung der Populationsgröße, um zumindest gleich gute Ergebnisse zu erzielen. Zusätzliche Tests am Automaton-Problem stützen diese Aussage. Jedoch steigt der Rechenaufwand durch Vergrößerung der Populationsgröße so stark an, daß bei nicht zeitnormierten Sprachdaten ES mit adäquater Populationsgröße nicht mehr simulierbar waren. In den Untersuchungen an dem Vokabular mit sechs Wörtern wurde der Fehler für jeden anliegenden Merkmalsvektor berechnet und im Gradienten bzw. zur Bewertung bei ES im Training verwendet. In diesen Messungen erbringen beide Algorithmen nahezu identische Klassifikationsergebnisse. Insgesamt verhindert der drastisch ansteigende Rechenaufwand bei den Sprachdaten die Verarbeitung von größeren Vokabularien und langen Wörtern durch ES. Aus der Beschränkung der Populationsgröße durch die vorhandene Rechnerkapazität resultierte eine nichtoptimale Anpassung von Selektionsdruck, Mutationsrate und Populationsverteilung im Suchraum. Insbesondere erweist sich die globale Anpassung der Strategieparameter bei den vergrößerten Populationen als problematisch. Weitere Untersuchungen an ES mit Strategien zur Selbstadaption dieser Parameter bieten sich daher für zukünftige Forschung an.
Untersuchungen des elektrischen und magnetischen Feldes in den NA49-TPCs mit Hilfe von Laserspuren
(1997)
Das Experiment NA49 am Europäischen Zentrum für Teilchenphysik (CERN) in Genf dient der Erforschung von relativistischen Schwerionenkollisionen. Dieses Feld der Kernphysik hatte seine Anfänge erst in den 70er Jahren am BEVALAC in Berkeley und untersucht zur Zeit Schwerionenstöße von einigen hundert MeV/Nukleon bis 200 GeV/Nukleon. Nach den heuteüblichen Experimenten mit festem Target sollen in der Zukunft Colliderexperimente mit Schwerionen neue Energiebereiche erschließen. Während die Experimente dadurch erleichtert werden, daß sie zumeist auf bestehende Beschleunigeranlagen aus der Hochenergiephysik zurückgreifen können, ist die theoretische Beschreibung relativistischer Schwerionenstöße ausgesprochen problematisch. Vom Verständnis dieser Reaktionsmechanismen erhoff t man sich aber einen Zugang zur starken Wechselwirkung bei niedrigen Impulsüberträgen, insbesondere in ausgedehnten Systemen.
Im Rahmen der vorliegenden Arbeit wurde ein Spracherkennungssystem realisiert, das sowohl phonembasierte als auch wortbasierte Modelle zur sprecherunabhängigen Schlüsselworterkennung im Kontext fließender Sprache verwenden kann. Das System erlaubt dabei die Wahl zwischen zwei grundlegend verschiedenen Verfahren: Entweder kann die Bewertung von Äußerungen durch Schlüsselwortmodelle mit gewählten Schwellenwerten verglichen werden, wobei eine Schwellenwertüberschreitung die Erkennung eines Schlüsselwortes signalisiert, oder es werden beliebige Phonemfolgen als Füllmodelle verwendet, die mit den Schlüsselwortmodellen konkurrieren. Der Schlüsselworterkenner kann sowohl zur 1-Schlüsselwort- Erkennung, bei der vorausgesetzt wird, dass sich in jeder Äußerung exakt ein Schlüsselwort befindet, als auch zur n-Schlüsselwort-Erkennung verwendet werden, bei der sich eine beliebige Anzahl Schlüsselwörter in jeder Äußerung befinden kann. Durch eine effiziente Implementation wurde die Fähigkeit zur Echtzeitverarbeitung auf verfügbaren Arbeitsplatzrechnern erreicht.....
Schon seit längerer Zeit wird die Verwendung sogenannter Gabor-Plasmalinsen, in denen ein einkomponentiges also Nichtneutrales Plasma eingeschlossen wird, zur Fokussierung von Teilchenstrahlen untersucht. Um eine gute Fokussierqualität zu erreichen, wird ein hoher Füllgrad der Linse, sowie ein lineares elektrisches Feld benötigt. Während die Gabor-Plasmalinse innerhalb ihres Arbeitsbereiches, in dem das Plasma als thermalisiert angenommen wird, gute Abbildungseigenschaften aufweist, kommt es außerhalb der Arbeitsfunktion der Raumladungslinse zu einem starken Verlust der Strahlqualität. Die Gabor-Plasmalinse dient als Instrument, doch um ihre Anwendung zu optimieren, müssen die wesentlichen Prozesse in Nichtneutralen Plasmen verstanden werden. In der vorliegenden Arbeit wurden Diagnosemethoden zur Bestimmung der Plasmaparameter eines Nichtneutralen Plasmas untersucht, deren Anwendung sich im Bereich der elektrisch neutralen Plasmen bewährt haben. Es wurden desweiteren neue Methoden entwickelt, um die wichtigen Parameter wie Elektronendichte und Elektronentemperatur bestimmen zu können. Die Ergebnisse der Messungen werden numerischen Simulationen vergleichend gegenübergestellt.
Die vorliegende Diplomarbeit lässt sich dem Gebiet der Terahertz-Physik (THz-Physik) zuordnen, also dem Gebiet der Physik, das sich mit der Erzeugung und Detektion von Ferninfrarotstrahlung beschäftigt. THz-Strahlung stellt dabei die Verbindung zwischen den elektromagnetischen Mikrowellen und den Wellen des infraroten Frequenzbereiches dar. Damit umfasst der THz-Bereich Frequenzen von etwa 100 GHz bis zu 100 THz. Die Forschung, die sich mit diesem Frequenzbereich beschäftigt, ist mittlerweile stark differenziert. Dabei geht es auf der einen Seite um die Entwicklung neuer bzw. die Weiterentwicklung und Optimierung bestehender THz-Erzeugungs- und Detektionsverfahren, auf der anderen Seite geht es um die Frage nach den möglichen Anwendungsgebieten für die entwickelten THz-Techniken. Entwickelt werden sowohl gepulste wie auch Dauerstrich-THz-Systeme, die auf einer Vielzahl verschiedener physikalischer Emissionsprozesse basieren. Die Anwendungsseite der THz-Forschung umfasst Gebiete wie die Spektroskopie, d.h. die Materialcharakterisierung und -untersuchung, aber auch komplexe biomedizinische Untersuchungsverfahren, wie z.B. die Krebsdiagnostik in der Onkologie. In der Bandbreite der weltweiten THz-Aktivitäten befindet sich diese Arbeit sowohl im Bereich der Entwicklung von THz-Techniken als auch in dem eher anwendungsbezogenen Bereich: Zunächst werden im zweiten Kapitel die verwendeten THz-Techniken und Messaufbauten vorgestellt, ebenso wie deren Funktionsweisen und speziellen Eigenschaften. Das dritte Kapitel beschäftigt sich mit der experimentellen Untersuchung von großflächigen THz-Emittern in gepulsten Lasersystemen. Diese weisen gegenüber den häufig verwendeten punktförmigen THz-Emittern einige grundlegende Unterschiede auf. Diese Unterschiede sollen zunächst durch die in das Kapitel einführenden theoretischen Grundlagen herausgearbeitet und danach anhand eines elektrooptischen Emitters und eines elektrisch vorgespannten Halbleiteremitters überprüft werden. In den folgenden Kapiteln wendet sich der Fokus dann mehr der Anwendung von THz-Strahlung zu. Dazu finden im vierten Kapitel Überlegungen und Experimente zu der Charakterisierung von, zunächst anorganischen, mehrschichtigen Systemen auf der Basis von Halbleiterstrukturen statt, die mit einem Ausblick auf eine biomedizinische Anwendung der THz-Strahlung, bei der Untersuchung von Zähnen, abgeschlossen werden. Im fünften Kapitel soll ein Silizium-Paraffin-Gemisch auf seine Stoffigenschaften untersucht werden. Für dieses Gemisch lassen sich die Stoffeigenschaften im THz-Bereich mittels des Mischungsverhältnisses der beiden Ausgangsmaterialien anpassen. Mögliche Anwendungen für ein solches Material sind indexangepasste Füllungen von Zwischenräumen, um störende Reflexionen an den jeweiligen Grenzflächen zu vermeiden; so wie die Konstruktion von Antireflexionsschichten für THz-Optiken. Beide Anwendungen werden in Form von Experimenten vorgestellt. Abschließend werden alle Ergebnisse in einem Fazit zusammengefasst, und es erfolgt ein Ausblick auf weitere Untersuchungen.
Im Rahmen dieser Arbeit wurden Protonen an im Raum ausgerichteten D2-Molekülen gestreut. Ziel war es nach möglichen Interferenzstrukturen in der Streuwinkelverteilung der Projektile zu suchen. Solche Interferenzstrukturen sind durch die Theorie vorhergesagt. Sie sind in Analogie zur Beugung am Doppelspalt ein Ergebnis der kohärenten Streuung des Projektils an den beiden Kernen des D2-Moleküls. Für den Reaktionskanal des Elektroneneinfangs mit gleichzeitiger Dissoziation des Moleküls mit einer Energie zwischen 4 und 7eV zeigen die experimentellen Daten tatsächlich ein Minimum an etwa der vorhergesagten Stelle. Dieses Minimum variiert mit der Orientierung der Molekülachse allerdings nicht ganz, wie aufgrund der Analogie zum Doppelspalt zu erwarten ist. Für den gleichzeitig im Experiment beobachteten Kanal der Transferionisation, der zu einer Fragmentenergie von etwa 9eV führt, wurden im Experiment keine Modulation der Streuverteilung beobachtet. Der beobachtete Reaktionskanal der Dissoziation wirft weitere Fragen auf, die über das einfache Doppelspalt-Bild hinausgehen. So kann das dissoziierende D2-Ion sowohl in einem geraden als auch in einem ungeraden Zustand seiner elektronischen Wellenfunktion zurückbleiben. Diese Symmetrie der elektronischen Wellenfunktion beeinflusst ebenfalls die Phase der gestreuten Welle. Eine zuverlässige Vorhersage des zu erwartenden Kontrastes des Interferenzmusters hängt von der relativen Stärke der Anregung in den geraden und ungeraden Zustand ab. Dieser Effekt ist bisher nicht in den theoretischen Modellen berücksichtigt. Diese Frage kann aber auch durch weitere Experimente geklärt werden. Im Rahmen einer anderen Diplomarbeit [Wim04] wurde ein sehr ähnliches Experiment vermessen: Ein einfach geladenes Wasserstoffmolekülion wird beschleunigt, stößt mit einem nahezu ruhenden Atom und fängt dabei ein Elektron ein. Durch den Elektroneneinfang geht das Molekül u. a. in einen 1ssu-Zustand über, der zur Dissoziation führt. Genau wie in diesem Experiment auch, kann dadurch die Molekülachse festgehalten werden. Betrachtet man in der Auswertung die Bewegung beider Teilchen in inverser Kinematik, d.h. lässt man das neutrale Atom auf das Molekül zufliegen, so zeigen sich in der Impulsverteilung des Rückstoßions (Atomions) Minima und Maxima, deren Position sich mit der Drehung des Moleküls ändert. Dies bestätigt eigentlich die Existenz von Interferenzen. Nur wird hier, wie bereits gesagt, die inverse Kinematik betrachtet, zudem vermisst man eigentlich den umgekehrten Übergang vom 1ssg-Zustand des Molekülions in den 1ssu-Zustand des Moleküls. Um theoretische Berechnungen jedoch direkt zu bestätigen, ist es durchaus erstrebenswert, die Kinematik wie hier in dem hier vorgestellten Experiment zu vermessen. Aus diesem Grund werden in nächster Zeit noch weitere Messungen vorgenommen, in denen mit gleichem Aufbau, jedoch mit einer niedrigeren Projektilenergie (10 keV - 25 keV), die gleiche Reaktion untersucht wird. Mit der niedrigeren Energie des Projektils soll eine sehr viel bessere Streuwinkelauflösung erreicht werden, so dass sie die Beobachtung möglicher Interferenzen definitiv nicht mehr begrenzt. Dadurch können zum einen die Ergebnisse dieser Arbeit auf ihre Richtigkeit überprüft werden. Wenn tatsächlich Interferenzstrukturen zu beobachten sind, zeigen zum anderen eventuelle Veränderungen, ob eine Analogie zum Doppelspalt gerechtfertigt ist.
Seit Mitte der 60er Jahre diesen Jahrhunderts hat sich in Europa und Nordamerika vor allem unter Jugendlichen und jungen Erwachsenen der Konsum von gesetzlich verbotenen Substanzen ausgebreitet. Ungefähr gleichzeitig setzte sowohl in den Massenmedien als auch in professionellen Kreisen eine heftige Diskussion über dieses Phänomen ein, die bis heute andauert, was nicht nur auf die fraglos nach wie vor aktuelle Problematik von Sucht bzw. Abhängigkeit insbesondere bezüglich Heroin, sondern auch auf die ständigen Veränderungen in den Konsumentenszenen wie auch die vielfältigen Aktivitäten im Bereich der Drogenpolitik zurückzuführen ist. Diese erhielt auch stets Nahrung von der wissenschaftlichen Diskussion, die sich seit Mitte der 80er Jahre vereinzelt auch mit "Nicht-Junkie-" Kreisen beschäftigt, welche den Konsum von Cannabis, Kokain, Designer-Drogen, Halluzinogenen und teilweise auch Heroin in einen "normalen" Alltag integriert haben, wobei bezüglich Deutschland meines Wissens noch keine umfangreicheren qualitativen Studien für diesen Bereich existieren. Dabei ist von Bedeutung, daß nach Schätzungen, teilweise aus quantitativen Erhebungen abgeleitet (großangelegte repräsentative Umfragen liegen nicht vor und könnten allein schon wegen der Illegalität keine seriösen Ergebnisse liefern), bei den meisten, wenn nicht gar bei allen genannten "Szene-Drogen" die überwiegende Mehrheit der Konsumenten (auch der Gewohnheitskonsumenten), zu diesen "integrierten" oder auch "kontrollierten" Gebrauchern zu zählen ist. Diese Vermutung steht im Gegensatz zur lange Jahre von den Vertretern der offiziellen Drogenpolitik und dem Großteil der Medien verbreiteten Meinung, daß jeglicher Konsum der durch das Betäubungsmittelgesetz illegalisierten Substanzen zu Sucht und sozialer Verelendung führe. Weiterhin werden die Verbote für bestimmte Substanzen oft so begründet, daß diese Drogen "kulturfremd" seien und deshalb keine historisch gewachsenen, konsumregulierenden Sitten und Gebräuche bezüglich des Konsums existieren wie z.B. bei Alkohol, Tabak und Kaffee. Daher ist es natürlich interessant zu erfahren, welcher Art die Mechanismen sind, die, der obigen Auffassung widersprechend, ein alltagsintegriertes Konsumverhalten auch bei illegalen Drogen ermöglichen, bzw. inwiefern sie den Kontrollmustern für die legalen Drogen ähnlich sind. Dabei muß selbstverständlich stets hervorgehoben werden, welche Drogen konsumiert werden, da einerseits zwar alle diese Substanzen den illegalen Status mit den entsprechenden alltagspraktischen Konsequenzen gemeinsam haben, aber doch erhebliche Unterschiede existieren in der jeweiligen Wirkungsweise und -intensität (pharmakologisch wie subjektiv), der Gefahr von Überdosierung und körperlichen oder geistigen Schädigungen sowie subkulturellen Zuschreibungen und Einbindungen. Für diese Arbeit habe ich qualitative Interviews mit dreizehn Personen durchgeführt, die allesamt mit mehreren verschiedenen illegalen Drogen Erfahrungen vorweisen können, wobei allerdings zum Teil deutliche Unterschiede bezüglich der Konsumfrequenzen, -mengen und vor allem auch der präferierten Drogen vorliegen. Dabei werde ich, unter Einbeziehung des Konzeptes von drug, set and setting, einerseits Beispiele für die Verschiedenheit von möglichen Konsummustern aufzeigen, gleichzeitig aber versuchen, gerade in bezug auf Funktionen und informelle Kontrollen des Konsums unterschiedlicher Drogen, Gemeinsamkeiten aufzuzeigen.
Transnationale Verlagerung von Care-Arbeit in Hinblick auf Ausbeutungs- und Emanzipationsaspekte
(2010)
Chapter 1 contains the general background of our work. We briefly discuss important aspects of quantum chromodynamics (QCD) and introduce the concept of the chiral condensate as an order parameter for the chiral phase transition. Our focus is on the concept of universality and the arguments why the O(4) model should fall into the same universality class as the effective Lagrangian for the order parameter of (massless) two-flavor QCD. Chapter 2 pedagogically explains the CJT formalism and is concerned with the WKB method. In chapter 3 the CJT formalism is then applied to a simple Z(2) symmetric toy model featuring a one-minimum classical potential. As for all other models we are concerned with in this thesis, we study the behavior at nonzero temperature. This is done in 1+3 dimensions as well as in 1+0 dimensions. In the latter case we are able to compare the effective potential at its global minimum (which is minus the pressure) with our result from the WKB approximation. In chapter 4 this program is also carried out for the toy model with a double-well classical potential, which allows for spontaneous symmetry breaking and tunneling. Our major interest however is in the O(2) model with the fields treated as polar coordinates. This model can be regarded as the first step towards the O(4) model in four-dimensional polar coordinates. Although in principle independent, all subjects discussed in this thesis are directly related to questions arising from the investigation of this particular model. In chapter 5 we start from the generating functional in cartesian coordinates and carry out the transition to polar coordinates. Then we are concerned with the question under which circumstances it is allowed to use the same Feynman rules in polar coordinates as in cartesian coordinates. This question turns out to be non-trivial. On the basis of the common Feynman rules we apply the CJT formalism in chapter 6 to the polar O(2) model. The case of 1+0 dimensions was intended to be a toy model on the basis of which one could more easily explore the transition to polar coordinates. However, it turns out that we are faced with an additional complication in this case, the infrared divergence of thermal integrals. This problem requires special attention and motivates the explicit study of a massless field under topological constraints in chapter 8. In chapter 7 we investigate the cartesian O(2) model in 1+0 dimensions. We compare the effective potential at its global minimum calculated in the CJT formalism and via the WKB approximation. Appendix B reviews the derivation of standard thermal integrals in 1+0 and 1+3 dimensions and constitutes the basis for our CJT calculations and the discussion of infrared divergences. In chapter 9 we discuss the so-called path integral collapse and propose a solution of this problem. In chapter 10 we present our conclusions and an outlook. Since we were interested in organizing our work as pedagogical as possible within the narrow scope of a diploma thesis, we decided to make extensive use of appendices. Appendices A-H are intended for students who are not familiar with several important concepts we are concerned with. We will refer to them explicitly to establish the connection between our work and the general context in which it is settled.
Tagging kausaler Relationen
(2005)
In dieser Diplomarbeit geht es um kausale Beziehungen zwischen Ereignissen und Erklärungsbeziehungen zwischen Ereignissen, bei denen kausale Relationen eine wichtige Rolle spielen. Nachdem zeitliche Relationen einerseits ihrer einfacheren Formalisierbarkeit und andererseits ihrer gut sichtbaren Rolle in der Grammatik (Tempus und Aspekt, zeitliche Konjunktionen) wegen in jüngerer Zeit stärker im Mittelpunkt des Interesses standen, soll hier argumentiert werden, dass kausale Beziehungen und die Erklärungen, die sie ermöglichen, eine wichtigere Rolle im Kohärenzgefüge des Textes spielen. Im Gegensatz zu “tiefen” Verfahren, die auf einer detaillierten semantischen Repr¨asentation des Textes aufsetzen und infolgedessen für unrestringierten Text m. E. nicht geeignet sind, wird hier untersucht, wie man dieses Ziel erreichen kann, ohne sich auf eine aufwändig konstruierte Wissensbasis verlassen zu müssen.
Suche im Semantic Web : Erweiterung des VRP um eine intuitive und RQL-basierte Anfrageschnittstelle
(2003)
Datenflut im World Wide Web - ein Problem jedes Internetbenutzers. Klassische Internetsuchmaschinen sind überfordert und liefern immer seltener brauchbare Resultate. Das Semantic Web verspricht Hoffnung - maßgeblich basierend auf RDF. Das Licht der Öffentlichkeit erblickt das Semantic Web vermutlich zunächst in spezialisierten Informationsportalen, so genannten Infomediaries. Besucher von Informationsportalen benötigen eine Abfragesprache, welche ebenso einfach wie eine gewöhnliche Internetsuchmaschine anzuwenden ist. Eine derartige Abfragesprache existiert für RDF zur Zeit nicht. Diese Arbeit stellt eine neuartige Abfragesprache vor, welche dieser Anforderung genügt: eRQL. Bestandteil dieser Arbeit ist der mittels Java implementierte eRQL-Prozessor eRqlEngine, welcher unter http://www.wleklinski.de/rdf/ und unter http://www.dbis.informatik.uni-frankfurt.de/~tolle/RDF/eRQL/ bezogen werden kann.