Refine
Year of publication
Document Type
- Bachelor Thesis (160) (remove)
Has Fulltext
- yes (160) (remove)
Is part of the Bibliography
- no (160) (remove)
Keywords
- NLP (4)
- Text2Scene (3)
- TextAnnotator (3)
- Annotation (2)
- Beschleunigerphysik (2)
- FRANZ (2)
- Ionenstrahl (2)
- Machine Learning (2)
- Strahldynamik (2)
- Strahlprofil (2)
Institute
- Physik (75)
- Informatik (36)
- Informatik und Mathematik (17)
- Mathematik (8)
- Gesellschaftswissenschaften (6)
- Wirtschaftswissenschaften (3)
- Erziehungswissenschaften (2)
- Geowissenschaften (2)
- Geschichtswissenschaften (2)
- Sprach- und Kulturwissenschaften (2)
In dieser Arbeit wurde die automatisierte Separation von Heliummono-, -di- und -trimeren beschrieben. Unter Nutzung ihrer unterschiedlichen De-Broglie-Wellenlängen wurden die verschiedenen Fraktionen mit einem Nanogitter getrennt. Zunächst wurden einige physikalische Grundlagen zu den genannten Atom- bzw. Molekülspezies, der hier auftretenden Bindungsform der Van-der-Waals-Bindung und insbesondere zur Materiewellenbeugung gelegt. Anschließend wurde der Versuchsaufbau dargestellt.
Bei der Durchführung wurden zunächst die drei jeweils vorhandenen Gitter und Spalte zu je einer Messung kombiniert und die beste Kombination für die weiteren Messungen ausgewählt. Das Experiment wurde weitergeführt, indem für verschiedene Temperaturen und Quelldrücke jeweils ein Beugungsspektrum von der für alle Heliumteilchen identischen nullten Ordnung bis zur ersten Ordnung der Heliummonomere aufgenommen wurde.
In der Auswertung wurde die Detektionswahrscheinlichkeit auf rund 37 % abgeschätzt. Weiterhin wurden die Ereignisse in den ersten Maxima der einzelnen Heliumfraktionen gezählt und so unter Verwendung der Detektionswahrscheinlichkeit molare Konzentrationen für das Heliumdi- und -trimer berechnet. Dabei wurden Anteile von bis zu 0,45 % für das Heliumdimer und 4,2 % für das Heliumtrimer erreicht. Diese Molanteile und ihre Abhängigkeit von Druck und Temperatur stimmen qualitativ gut mit der Literatur überein, quantitativ lassen sie sich u. a. wegen abweichender Nachweismethoden kaum vergleichen.
Anschließend wurde der Abstand von Düse und Skimmer variiert mit dem Ergebnis, daß eine Veränderung im betrachteten Bereich keinen nennenswerten Einfluß auf die Bildungsraten von Di- und Trimeren hat. Weiterhin wurde die auf zweierlei Weise bstimmbare Geschwindigkeit der Heliumteilchen im Gasjet ermittelt und verglichen.
Die beiden Geschwindigkeiten weichen lediglich im unteren Temperaturbereich signifikant voneinander ab, wofür plausible Erklärungsansätze dargelegt wurden.
Die Größe der Quellregion der betrachteten Heliumcluster wurde unter geometrischen Gesichtspunkten und unter Extrapolation der für verschiedene Spaltbreiten gemessenen Maximumsbreiten untersucht. Im Ergebnis wird die Quellbreite zu 58,5 μm abgeschätzt.
Die Automatisierung des Aufbaus erlaubte eine Vielzahl von systematischen Messungen, die ohne diese Automatisierung sehr zeitaufwendig gewesen wären. Insbesondere wurden in kurzer Zeit - wie zuvor geschildert - die Beugungsmuster von drei Gittern in Kombination mit je drei verschiedenen Kollimationspalten sowie die Abhängigkeit der Heliumdimer- und -trimerbildung von Temperatur, Druck und Abstand von Düse und Skimmer untersucht. Die Automatisierung erlaubt für zukünftige Messungen, z. B. in Strahlzeiten am Freien Elektronenlaser FLASH, jeweils in situ die Clusterbildung zu untersuchen. Möge das beschriebene Experiment nicht nur diese, sondern auch viele weitere Messungen beschleunigen helfen und so zum gesellschaftlichen Erkenntnisgewinn beitragen!
Die vorliegende Bachelorarbeit leistet einen Beitrag zur wissenschaftlichen Identifikation von intergenerationalen Unterschieden verschiedener Arbeitnehmergruppen. Insbesondere werden sowohl die Unterschiede zwischen den Generationen X und Y, in der Arbeitsbereitschaft, in unterschiedlichen Abschnitten des Berufslebens, als auch die Unterschiede zwischen der Wahrnehmung der Wichtigkeit von Arbeitgeberattraktivitätsattributen jener Generationen betrachtet. Ein besonderes Augenmerk liegt hierbei auf der Betrachtung von High-Potentials.
Non-Fungible Token und die Blockchain Technologie haben in dem vergangenen Jahr immer mehr an Popularität gewonnen. Wie bei jeder neuartigen Technologie stellt sich jedoch die Frage, in welchen Bereichen diese eine Anwendung finden können.
Das Ziel in der vorliegenden Arbeit ist es zu beantworten, ob Non-Fungible Token und die Blockchain Technologie eine sinnvolle Anwendung im Bereich von akademischen Zertifikaten hat.
Um diese Frage zu beantworten, sind Gründe für die Anwendung von Non-Fungible Token gegen Nachteile abgewogen und Lösungsansätze für potentielle Risiken erhoben worden. Außerdem wurde selbstständig ein ERC-721 Token Contract für akademische Zertifikate mittels Solidity entwickelt.
Die Arbeit zeigt, dass Blockchain basierte akademische Zertifikate vor allem die Mobilität von Studenten unterstützen, den administrativen Aufwand der Ausstellung und Verifizierung von Abschlusszeugnissen verringern und entgegen der Fälschung von Abschlüssen arbeiten. Außerdem können erwägte Risiken und Nachteile durch Zusammenschluss von Institutionen zu einer Konsortialen Blockchain umgangen werden.
Die erfolgreiche Entwicklung des ERC-721 Token Contracts “MetaDip” zeigt eine potentielle Umsetzung für die Digitalisierung von Abschlusszeugnissen und demonstriert, dass Non-Fungible Token basierte akademische Zertifikate aktuell bereits technisch realisierbar sind.
Die Arbeit legt dar, dass Non-Fungible Token und die Blockchain Technologie eine vielversprechende Zukunft für akademische Zertifikate bietet und bereits von vereinzelten Institutionen realisiert wird. Jedoch müssen noch einige Vorkehrungen getroffen werden, bevor eine breite Umsetzung von Blockchain basierten akademischen Zertifikaten möglich ist.
Over the course of the last financial crises, retail investors have been identified to bear a major share of the invoked financial losses. As a consequence, financial market regulators put major effort on retail investor protection, especially following the Great Financial Crisis of 2007-2009. The major legislative initiatives, such as in the Dodd-Frank Act in the United States, seemingly manifest retail investors’ overly fragile role among the variety of professional investors in the financial market by establishing additional protection requirements for retail investors. A vast majority of related international academic literature is supporting those steps. However, considering the most recent developments that occurred in the US financial markets, the dogma of the lamb-like retail investor seems to be crumbling: In 2021, under the synonym “WallStreetBets” retail investors systematically colluded in investment bets which eventually disrupted not only financial markets by distorting stock price formation of single firms but also systematically squeezed sizeable positions of institutional investors. The key question arises, how retail investors have changed, such that they not only became a source of price distortions and market turmoil but also endanger professional institutional investors. In this thesis, I study this changing role and investment behavior of retail investors, taking into account the retail investor’s wellestablished and researched behavioral characteristics to the changing environmental aspects such as regulation and the adaption and usage of technology for information gathering and collaboration. Based on the combination of those different research streams, I am able to deduct the sequential consequences of these developments for financial markets.
Im Laufe dieser Bachelor-Arbeit wurden verschiedene GEM-Anordnungen systematisch auf ihr IBF-Verhalten hin untersucht. Neben der Reproduktion zuvor durchgeführter Messungen wurden auch neue GEM-Kombinationen getestet. Insbesondere lag der Fokus darauf, eine Verbesserung des IBFs gegenüber des Baseline-Setups zu erzielen. Dabei kamen neben der bisher verwendeten S und LP Folien auch SP Folien zum Einsatz. Die Messungen brachten jedoch kein Ergebnis hervor, welches als Verbesserung gegenüber der Ausgangslage angesehen werden könnte. Da mit SP GEMs zuvor wenig gearbeitet wurde, war es unter anderem ein Ziel, zu untersuchen, wie sich die Verwendung dieser GEMs auf den IBF auswirkt. Insbesondere war die Frage zu klären, ob durch ihre Verwendung der IBF des Baseline-Setups
verbessert werden kann. Zum besseren Verständnis wurde ebenfalls eine Variante, S-S-LPS, untersucht. Für dieses Setup konnte durch die Verwendung einer SP Folie auf Position 4 eine Verbesserung des IBF bewirkt werden, für das Baseline-Setup jedoch nicht. Ein wesentliches Ergebnis dieser Bachelor-Arbeit war, dass das Alignment der GEMs, entgegen bisheriger Annahmen, eine große praktische Relevanz hat. Die relative Orientierung zweier aufeinander folgender GEMs gleichen Lochabstands zueinander hat einen großen Ein
uss auf die lokale Ionentransmission. Eine genauere Untersuchung hat ergeben, dass man dem entgegenwirken kann, indem man aufeinander folgende GEMs um 90° gedreht einbaut. Aufgrund der Geometrie der Folien verhindert man dadurch, dass sich die Löcher zweier Folien direkt ßber- bzw. untereinander anordnen. Ein solcher Aufbau konnte durch eine geringfügige Modifikation der Testkammer erreicht werden.
Mit diesem veränderten Aufbau wäre es nun das Ziel gewesen, alle bisherigen Messungen zu wiederholen und auf Reproduzierbarkeit hin zu überprüfen. Die Wiederholung einer Messreihe mit um 90° gedrehten GEMs hat im Rahmen der Fehlertoleranzen reproduzierbare
Ergebnisse geliefert. Aus zeitlichen Gründen war es jedoch im Rahmen dieserArbeit nicht möglich, eine vollständige Wiederholung aller Messungen durchzuführen. Dies wurde zu einem späteren Zeitpunkt von anderen Personen getan.
Die folgende Bachelorarbeit beschäftigt sich mit dem Thema des Displacement-Mappings unter Verwendung eines Tessellation-Shaders. Ziel dieser Arbeit ist es, ein Programm zu entwerfen, welches einen visuellen Einblick in die Tessellation und in das Displacement-Mapping bietet. Des Weiteren soll die Leistung der Tessellation mit der des Geometry-Shaders und einem QuadTree-Verfahren verglichen werden.
Dazu wird zuerst beschrieben, welche Umgebung zur Implementierung verwendet wurde. Anschließend werden zunächst einige geläufige Mappingverfahren betrachtet. Im nächsten Abschnitt wird dann auf die Tessellation und das Displacement-Mapping in Bezug auf Funktionsweise und Implementierung eingegangen. Es folgt ein Vergleich der Performance der unterschiedlichen Mapping-Verfahren untereinander. In einem weiteren Vergleich wird die Performance der Tessellation (mit Displacement-Mapping) mit einem Geometry-Shader und einem QuadTree-Verfahren anhand eines Terrains durchgeführt. Abschließend erfolgt die Beschreibung des Programms.
Ziel dieser Arbeit war die Untersuchung eines neuen Prototypen für den Übergangsstrahlungsdetektor im zukünftigen CBM-Experiment. Da der TRD zur Untersuchung des Quark-Gluon-Plasmas im Bereich hoher Baryonendichten bei hohen Kollisionsraten besonders schnell sein muss, wurde ein Prototyp mit einem kleinen Gasvolumen ohne Driftbereich entwickelt. Die Geometrie ist jedoch mit einer Reduzierung der Stabilität der Gasverstärkung verbunden, denn das elektrische Feld in der Kammer ist bei den geringen Abständen von Verformungen des dünnen Kathodenfensters abhängig. Daher wurde eine vielversprechende, veränderte Drahtgeometrie eingeführt: zwischen den Anodendrähten wurden zusätzliche Felddrähte positioniert, um das elektrische Feld im Bereich der Gasverstärkung zu stabilisieren.
Der neue Prototyp mit alternierender Hochspanngung und mit einer Dicke von 8 mm sowie einer aktiven Fläche von 15 x 15 cm2 wurde im Labor mit einer 55Fe-Quelle getestet.
Dazu wurden Strommessungen und eine spektrale Analyse für 25 verschiedene Positionen der Quelle vor der Kammer durchgeführt, sowohl mit der neuen Kammer als auch mit einer Standardkammer als Referenz. Die mit der neuen Kammer verbundenen positiven Erwartungen konnten durchweg bestätigt werden. Sowohl für die Strom- als auch für Energiemessung konnte eine signifikante Verbesserung der Stabilität der Gasverstärkung festgestellt werden. Variationen von über 60 % über die verschiedenen Messpunkte für die Standardkammer konnten mit der Kammer mit alternierender Hochspannung auf unter 15 % reduziert werden. Auch bei einer Variation des differentiellen Drucks, der mit der Ausdehnung des Folienfensters verbunden ist, kann das elektrische Feldes mithilfe der Felddrähte stabilisiert werden. Ebenso kann eine Analyse der Energieauflösung für die mit den Prototypen aufgezeichneten Spektren den stabilisierenden Effekt bestätigen. Eine zusätzliche Verbesserung durch das Anlegen einer negativen Spannung an den Felddrähten konnte allerdings nicht beobachtet werden. Ebenso zeigten die Messungen mit einer zweiten Kammer mit asymmetrischer Geometrie, das heißt die Drahtebene wurde in Richtung der hinteren Kathode verschoben, keine weitere Stabilisierung. Messungen der an den Felddrähten influenzierten Ströme zeigen, dass diese etwa bei einem Drittel der Anodenströme liegen, wobei sie für eine Erhöhung der Felddrahtspannung ebenso wie für die Messung mit der asymmetrischen Kammer leicht ansteigen. Die Ströme an den Felddrähten sind mit der Bewegung der Ionen in der Kammer verbunden, die das elektrische Feld stören können. Durch die Einführung der Felddrähte wird sich ein Teil der Ionen zu diesen bewegen, anstelle den Weg durch die Kammer bis zu den Kathoden zurückzulegen.
Die positiven Ergebnisse für die Kammer mit alternierenden Drähten sind nun Ausgangspunkt für weitere Schritte. Größere Kammern mit einer Fläche von 60 x 60 cm2, wie sie auch im finalen Experiment eingesetzt werden, wurden bereits gebaut und in einem gemischten Elektron-Pion-Strahl am PS (Protonsynchrotron) und mit einem Bleitarget am SPS (Super-Proton Synchrotron) am CERN getestet. Dabei wurde die Dicke des Gasvolumens nochmals – auf 7 mm – reduziert, was die Schnelligkeit des Detektors weiter erhöht, allerdings auch die Stabilität der Gasverstärkung wieder auf die Probe stellt. Die Daten werden derzeit ausgewertet. Eine weitere Analyse auf Basis der Padauslese im Labor ist in Planung. Hierbei ist insbesondere die Verteilung eines Signals über die Pads (Pad-Response-Funktion) von Bedeutung, wobei diese von der Bewegung der Ionen und damit von der Geometrie des elektrischen Feldes beeinflusst wird. Die Einführung der Felddrähte spielt hier eine wesentliche Rolle; insbesondere beträgt der Drahtabständ zwischen den Andodendrähten nun 5 mm, während die Abstände bei den vorhergehenden Generationen bei 2-3 mm lagen.
Auch die Signalform ist von Interesse. Die derzeit ebenfalls in Entwicklung befindliche Ausleseelektronik und die Algorithmen zur Datenverarbeitung sind auf die bekannte Signalform eines Standardprototypen ausgerichtet. Eine veränderte Form müsste entsprechend berücksichtigt werden, um aussagekräftige Ergebnisse zu erhalten. Die Auswertungen in dieser Arbeit zeigen, dass sich die Signalform grundsätzlich nicht von der des Standardprototypen unterscheidet. Wichtig sind auch die Driftzeiten für Elektronen aus der Lawine. Sie spielen eine entscheidende Rolle für die die Schnelligkeit des Detektors. Mit der Einführung der Felddrähte liegen sie zwar zum großen Teil nach wie vor im Bereich eines Standardprototyen mit entsprechender Dicke des Gasvolumens von 8 mm bei bis zu 150 ns, jedoch folgt dann ein sehr langsamer Abfall mit Elektrondriftzeiten von bis zu 450 ns [47]. Eine Verbesserung ist durch ein kleineres Gasvolumen möglich, für einen Anoden-Kathoden-Abstand von 3 mm sinken die maximalen Driftzeiten auf 300 ns. Eine andere Alternative ist das Anlegen einer negativen Spannung an das Eintrittsfenster.
Der Karlsruhe 4π-Bariumfluorid-Detektor, entwickelt und aufgebaut Ende der Achtzigerjahre am Forschungszentrum Karlsruhe, ist ein effizienter Detektor für Gammastrahlung und bietet vielfältige Einsatzmöglichkeiten für kernphysikalische Experimente. Insbesondere für Experimente der nuklearen Astrophysik ist er geeignet, aber auch für die Forschung zur Entwicklung neutronengetriebener Reaktoren, zum Beispiel zur Transmutation radioaktiver Abfälle. Derzeit befindet sich der Detektor an der Goethe-Universität Frankfurt, wo er mit der sich dort in Entwicklung befindenden FRANZ-Neutronenquelle eingesetzt werden soll. Diese ermöglicht zum Beispiel Messungen von Wirkungsquerschnitten für den s-Prozess in astrophysikalisch relevanten Energiebereichen und bei hohen Intensitäten.
Diese Arbeit behandelt astrophysikalische Möglichkeiten die der Detektor bietet sowie dessen allgemeinen Aufbau und Eigenschaften. Es wurden eine Funktionsprüfung des Detektors, Messungen der Zeit- und Energieauflösung, Energiekalibration sowie kleine Optimierungen und Reparaturen durchgeführt.
Das CBM Experiment konzentriert sich auf die Untersuchung des Phasendiagramms von stark wechselwirkender Materie im Bereich moderater Temperaturen, aber hoher Netto-Baryonendichte. Dabei sollen unter anderem Proben aus dem frühen und hochdichten Stadium des Quark-Gluon Plasmas detektiert werden. Ein Beispiel dafür ist das J/ψ-Meson. Das Vektormeson gilt wegen seiner Eigenschaften und Interaktion mit dem QGP als eine der wichtigen Proben stark wechselwirkender Materie.
In dieser Arbeit wird die Performance der Detektoren anhand einer Simulation in Hinsicht auf die Messung des J/ψ-Mesons studiert. Es werden hierfür unterschiedliche Simulationsansätze verglichen. Die Simulation wird im FairRoot und CbmRoot Framework durchgeführt. Es werden Proton+Gold Kollisionen bei einer Strahlenergie von 30 GeV pro Proton simuliert. Dabei verwenden wir das Standard-Setup des SIS100 für Elektronen. Das J/ψ-Meson wird über den e+e−-Zerfallskanal rekonstruiert. Bei der J/ψ-Rekonstruktion werden zuerst Schnitte gesetzt, mit der ein großer Teil der Teilchenspuren, die nicht aus J/ψ-Zerfällen stammen, aussortiert werden und so der Untergrund verringert wird.
Die Effizienz für Elektronen im Detektor-Setup RICH+TRD+TOF beträgt 65 Prozent. Für das J/ψ-Meson erhalten wir mit den gleichen Detektoren eine Effizienz von 25 Prozent. Das invariante Massenspektrum, das wir aus einer Simulation mit 8,5 Millionen Ereignisse bilden, zeigt uns, dass der hauptsächliche Anteil des Untergrunds aus Pion-Elektron-Kombinationen besteht. Es folgen im e+e−-Zerfallskanal unkorrelierte Elektron-Positron-Kombinationen als der zweitgrößte Beitrag zum Untergrund. Die Statistik ist bei der Full Simulation zu gering, um das J/ψ-Signal extrahieren zu können. Eine Integration liefert uns ein J/ψ Signal von 0,021 bei 8,5 Millionen Ereignisse, d.h. für die Detektion eines J/ψ-Mesons werden ca. 1010 Ereignisse benötigt.
Die Fast Simulation Methode ermöglicht uns in kürzerer Zeit eine größere Menge an Ereignissen zu simulieren. Dazu werden Information aus der Full Simulation entnommen, die als Antwort-Funktionen bezeichnet werden. Die Antwort-Funktionen werden der Fast Simulation übergeben, um so zeitintensive Prozesse in der Simulation überspringen zu können. Zum Zeitpunkt der Arbeit fehlen Pionen, Protonen und Kaonen in den invarianten Massenspektren der Fast Simulation. Das Problem soll in Zukunft behoben werden. Folglich haben wir ein invariantes Massenspektrum mit 85 Millionen simulierten Ereignissen, jedoch ohne Pionen, Protonen und Kaonen. Wir erhalten daher ein signifikantes J/ψ-Signal, allerdings mit einem unrealistisch hohen S/B-Verhältnis. Ein weiteres Ziel, nach der Implementierung der fehlenden Teilchen, soll die nochmalige Extrahierung des J/ψ-Signals mit korrektem Untergrund sein.
Shader zur Bildbearbeitung
(2009)
In den letzten Jahren haben Grafikkarten eine starke Veränderung erfahren. Anfangs war lediglich die Darstellung vorberechneter Primitive möglich, mittlerweile lassen sich Vertex- und Pixelshader komplett frei programmieren. Die Spezialisierung auf den Rendervorgang hat die GPUs (Graphics Processing Units) zu massiv-parallelen Prozessoren wachsen lassen, die unter optimaler Ausnutzung ein Vielfaches der Rechenleistung aktueller CPUs erreichen. Die programmierbaren Shader haben Grafikkarten in der letzten Zeit vermehrt als weiteren Prozessor für General Purpose-Programmierung werden lassen.
Aktuelle Bildbearbeitungsprogramme zeigen, dass sich die Tendenz Richtung GPU bewegt, so wird sich auch in dieser Arbeit die enorme Rechenleistung der GPU für die Bildbearbeitung zu nutzen gemacht. Bildfilter lassen sich als Pixelshader realisieren und ermöglichen so die Ausführung direkt auf der GPU. Das vorgestellte Framework SForge wurde mit dem Ziel entwickelt, zu einem bestehenden Framework kompatibel zu sein. Als bestehendes Framework wurde auf AForge zurückgegriffen. Mit SForge können bestehende und eigene Bildfilter direkt auf der GPU ausgeführt werden, aber auch die Konvertierung von Farbräumen und Farbsystemen wurden realisiert. Das Framework arbeitet floatbasierend. Somit können auch HDR-Daten verarbeitet werden, um beispielsweise Tonemapping anzuwenden. Filter mit Parametern lassen sich über einen optionalen Dialog interaktiv ändern und modifizieren das Resultat in Echtzeit.
The aim of this bachelor thesis is to compare and empirically test the use of classification to improve the topic models Latent Dirichlet Allocation (LDA) and Author Topic Modeling
(ATM) in the context of the social media platform Twitter. For this purpose, a corpus was classified with the Dewey Decimal Classification (DDC) and then used to train the topic models. A second dataset, the unclassified corpus, was used for comparison. The assumption that the use of classification could improve the topic models did not prove true for the LDA topic model. Here, a sufficiently good improvement of the models could not be achieved. The ATM model, on the other hand, could be improved by using the classification. In general, the ATM model performed significantly better than the LDA model. In the context of the social media platform Twitter, it can thus be seen that the ATM model is superior to the LDA model and can additionally be improved by classifying the data.
Ziel dieser Arbeit ist es einen geeigneten Szintillationsdetektor für die Messungen differentieller Neutroneneinfangquerschnitte im FRANZ-Aufbau zu finden. Dafür wurde untersucht inwiefern sich das Szintillatormaterial LaBr3(Ce) (Lanthanbromid) eignet. Verwendet wurde eine Anordnung von zwei Szintillationsdetektoren dieses Typs. Mit Hilfe von Kalibrationsquellen wurden charakteristische Größen, wie Effizienz (Nachweiswahrscheinlichkeit) und Auflösungsvermögen untersucht und die ermittelten Werte mit GEANT-3.21 Simulationen [2] verglichen.
Im Rahmen der Bachelorarbeit wurden verschiedene Messungen am CH-Modell des Protonen - Linearbeschleunigers für FAIR durchgeführt.
Zu Beginn wurde die Wirkung der Tuner auf das elektrische Feld im Resonator und die Frequenz untersucht. Aus den systematischen Messungen konnte man feststellen, wie die Tuner das elektrische Feld beeinflussen. Außerdem konnte man sehen, dass die Tuner zu einer Erhöhung der Frequenz führen, was auch durch den theoretischen Hintergrund erwartet wurde. Aus den so gewonnenen Erkenntnissen konnte nun versucht werden, die Spaltspannungen an eine Vorgabe aus LORASR anzupassen. Dies nahm den Hauptteil der Bachelorarbeit ein. Die Anpassung konnte durch Variation der Tuner und der Spaltlängen erreicht werden. Die Abweichungen zur LORASR - Vorgabe lagen alle, bis auf einen Wert, im vorgegebenen Bereich. Allerdings waren die Messungen nicht perfekt reproduzierbar, da es bei der Störkörpermessung zu Fehlern kam. Der Motor, der den Störkörper durch die CH-Struktur ziehen sollte, war in diesem Zeitraum defekt, wodurch sich die gemessenen Spaltspannungen etwas veränderten.
Weiterhin wurde noch eine Sensibilitätsuntersuchung bei Erwärmung des Niederenergieteils des Resonators und eine Modenuntersuchung durchgeführt.
Durch die Erwärmung des Niederenergieteils konnte man sehen, dass das Feld im Inneren des Resonators auf Temperaturunterschiede reagiert. Dies hat aber keinen Einfluss auf die Betriebsfähigkeit des Resonators, da die zu erwartenden Einflüsse auf den Resonator im Betrieb sehr gering sind. Die Modenuntersuchung hat die vorherigen Annahmen bestätigt. Die Hochfrequenzleistung wird über die Linse hinweg störungsfrei weitergegeben und die ersten 4 Moden schwingen alle in dem Modell an und sind messbar, wenn man außen in den Tanks einkoppelt.
Der für diese Arbeit entwickelte Prototyp zur Neutronenproduktion hat sich bereits während der ersten Tests bewährt, womit schnell festgestellt wurde, dass sich das Grunddesign des Prototypen für die späteren Experimente am FRANZ eignet. Wie man gesehen hat, entstand die verwendete Revision in mehreren Schritten, da immer wieder aus gemachten Planungsfehlern gelernt werden musste. Zusätzlich gab es bei der Planung mehrere Beschränkungen, die beachtet werden mussten, dazu zählt unter anderem die Form des Prototypen, um ohne Probleme den Bedampfungstand des FZK verwenden zu können.
Das neue Kühlsystem verlangte während der Planung besonderer Aufmerksamkeit. Bei Experimenten wie am IRMM oder FZK kann aufgrund der geringen Leistung des Beschleunigers mit einer Luftkühlung oder einfachen Wasserkühlung gearbeitet werden. Diese Arten der Kühlung beeinflussen den Neutronenfluss nicht. Bei FRANZ muss aufgrund der im Vergleich zu den vorher genannten Experimenten viel höheren Leistung von 4 kW, ein gänzlich neuer Kühlungsansatz verwendet werden. Um die Leistung vom Target abzuführen, muss nun ein viel größerer Bereich gekühlt werden, um die entstehenden Temperaturen unter Kontrolle zu halten. Auch das Vorhersagen der entstehenden Temperaturen war nur unter Annahme mehrerer Parameter möglich. Durch die komplexe Struktur des Prototypen stieß die Berechnung des Temperaturprofis mit einfachen analytischen Mitteln schnell an ihre Grenzen. Aus diesem Grund wurden für diese Arbeit jeweils nach der Einführung der Wärmeleitung vereinfachte Annahmen gemacht, um dennoch Berechnungen durchführen zu können. Dass dies nicht immer zu exakten Ergebnissen führt, wurde während des Prozesses mehrfach festgestellt. Dennoch konnten so die Größenordnungen der Temperaturen bestimmt werden, was letztlich zur Auslegung des Kühlsystems beitrug.
Die Lösung, für die sich entschieden wurde, war die Kühlung der Rückseite des Target mit Wasser. Der große Nachteil dieser neuen, aber notwendigen Kühllösung, sind die Materialien, die nun den Neutronenfluss aus der Li(p,n) Reaktion beeinflussen. Wichtig war es eine Balance zwischen Schichtdicken von Kupfer und Wasser, die für die mechanische und thermische Stabilität notwendig waren, und der Qualität des erhaltenen Spektrums zu finden. Hierfür wurden zahlreiche Simulationen mit GEANT 3 angefertigt, um die Einflüsse beider Stoffe abschätzen zu können, wobei sich schließlich herausstellte, dass die Schichtdicke von Wasser die Neutronen am meisten beeinflusst. Da Wasser stark moderierend auf Neutronen wirkt, stellte man fest, dass man bei Experimenten vor allem hochenergetische Neutronen verliert. Konsequenz war die strikte Kontrolle der Wasserdicke.
Szenen automatisch aus Texten generieren zu können ist eine interessante Aufgabe der Informatik. Für diese Aufgabe wurde VANNOTATOR (Mehler und Abrami 2019, Abrami, Spiekermann und Mehler 2019, Spiekermann, Abrami und Mehler 2018) entwickelt, ein Framework, das die Beschreibung bzw. Beschriftung von VR-Szenen ermöglicht. Damit für diese Szenen die benötigten 3D-Objekte bereitgestellt werden können, sind entsprechende Datenbanken vonnöten. Diese Datenbanken müssen umfangreich annotiert sein, damit diese Aufgabe bewältigt werden kann. Deshalb wurde im Falle des VANNOTATORs auf die ShapeNetSem Datenbank zurückgegriffen (Abrami, Henlein, Kett u. a. 2020).
Je detailreicher eine Szene dargestellt wird, desto detailreicher kann diese auch durch einen Text beschrieben werden. Aus diesem Grund wird die Datenbank um einen Teilbereich von PartNet (Mo u. a. 2019) erweitert. Dieser erlaubt die Option, Objekte zu segmentieren, und erweitert hierdurch das annotierbare Vokabular. Manche der bereits vorhandenen ShapeNetSem-Objekte verfügen über die Eigenschaft, dass sie auch PartNet-Objekte sind. Diese Arbeit befasst sich mit der Umsetzung, wie ShapeNetSem-Objekte mit hinterlegten PartNetObjekten durch diese ersetzt werden können. Um das zu bewerkstelligen, wurde ein Panel entworfen, in welchem ein PartNet-Objekt mit samt seinen einzelnen Segmenten aufgeführt wird. Diese Segmente können nun wie ShapeNetSem-Objekte ausgewählt und in einer Szene platziert werden. Dadurch werden 1.881 Objekte mit wiederum 34.016 Unterobjekten VANNOTATOR zur Verfügung gestellt. Dieses vergrößerte Vokabular hilft Natural Language Processing noch effektiver und präziser voranzutreiben.
In dieser Arbeit werden 4,6 Millionen englische Tweets, welche das Keyword „Bitcoin“ enthalten, analysiert und der Zusammenhang zwischen dem Sentiment der Tweets und den Renditen des Bitcoin untersucht. Zur Bestimmung der Sentiment-Klassen werden Text-Klassifizierer mit verschiedenen Ansätzen, darunter auch auf Convolutional Neural Networks und Transformern basierende Modelle, in diesem Kontext evaluiert und optimiert. Es wird außerdem ein Meta-Modell konstruiert, welches beim Problem der Sentiment-Klassifikation von Tweets in drei Klassen {Positiv, Negativ, Neutral} in der betrachteten Domäne besser abschneidet, als die anderen begutachteten Modelle. Bezüglich des Zusammenhangs wird im Speziellen auch der Einfluss von Merkmalen der Tweets und ihrer Verfassern anhand der Distanzkorrelation untersucht.
Die Arbeit untersucht die Herstellung und ökonomische Umsetzung von "ethnischem Anderssein" in sog. Kultur-Kochkursen in Frankfurt am Main. In den beforschten Kultur-Kochkursen vermitteln ethnisch markierte KochkursleiterInnen "ihre Küche und Kultur" einem (multikulturalistisch) interessiertem Publikum. Die Arbeit fokussiert auf die performative Herstellung, Umsetzung und Repräsentation von (vermarktbarem) ethnischen Andersseins durch die KochkursleiterInnen in der Kochkurssituation und überprüft die Annahme, dass Ethnizität primär durch (Selbst-)Othering – die Betonung von unüberbrückbarer, essentieller kultureller Differenz – vermarktet wird. Die Befunde, welche auf Internetrecherchen, teilnehmenden Beobachtungen und narrativen Interviews basieren, zeigen, dass die organisierenden Institutionen die Kulturkochkurse zwar mit dem Verweis auf Authentizität, Tradition und Andersartigkeit bewerben, die Kultur-KochkursleiterInnen selbst in der Kochkurssituation allerdings kein kulturalistisches, exotisierendes und Differenz betonendes Ethnizitätskonzept perfomieren, sondern vielmehr Dynamik, Vielfalt und Vermischungen artikulieren, praktizieren und stark positiv konnotieren.
"Es scheint normal, dass Frauen Opfer und Männer Täter sind" (Schwithal 2004:1). Permanent wird der akute Schutzbedarf von Frauen breitflächig thematisiert. Die Medien liefern täglich erschütterndes Material von Frauen, die Gewalt erfahren. In diesem Fall sind Hilfs- und Beratungsangebote leicht zu finden, Frauenhäuser sind in der breiten Masse der Bevölkerung bekannt und sensible Handlungsleitfäden für Betroffene und Angehörige liegen in Arztpraxen oder Supermärkten aus. Gegenstand ist überwiegend häusliche Gewalt1 - die Gewalt welche hinter verschlossenen Türen und von der Öffentlichkeit abgeschnitten geschieht und der Frauen hilflos ausgeliefert sind. TV-Spots, die Opfer dazu aufrufen nicht länger in der missbräuchlichen Situation zu verharren, richten sich ausschließlich an Frauen. Der quälende, schreiende und schmerzverursachende Mann – oft nur als dunkler Schatten, geballte Faust oder bedrohliche Stimme dargestellt – verharrt in der Täterrolle. ...
In der aktuellen Zeit gibt es eine Vielzahl an annotierten Texten und anderen Medien. Genauso gibt es verschiedenste Möglichkeiten neue Texte zu annotieren, sowohl manuell als auch automatisch. Es gibt Systeme, die diese Annotationen in andere, visuell ansprechendere Medien umwandeln. Zu diesen Systemen gehören auch die Text2Scene Systeme, dort wird ein annotierter Text in eine dreidimensionale Szene umgewandelt. Ein Teil dieser Text2Scene Systeme können auch Personen durch Modelle von Menschen darstellen, aber bis jetzt gibt es noch kein System, dass Avatar Modelle selber synthetisieren kann.
Der Fokus dieser Arbeit liegt sowohl darauf eine Schnittstelle bereitzustellen, mit der Avatare mit bestimmten Parametern erstellt werden können, als auch die Möglichkeit diese Avatare in der virtuellen Realität anzuzeigen und zu bearbeiten. Man kann in einer virtuellen Szene die Eigenschaften bestimmter Körperteile anpassen und die Kleidung der Avatare auswählen.
Ziel dieser Bachelorarbeit war die Vorstellung und die Untersuchung eines effektiven, mesonischen Drei-Flavor-Modells der Quantenchromodynamik und dessen Phänomenologie. Dazu wurden zunächst die Kopplungskonstanten a und b des Modells durch die Berechnung dominanter Zerfallsbreiten der im Modell enthaltenen Axialvektor- und Pseudovektor-Mesonen festgelegt. Dabei wurde für die Festlegung der Kopplungskonstanten a der Zerfall von f1 (1420) in KK*(892) verwendet. Die so berechnete Kopplungskonstante wurde anschließend unter Verwendung des ρπ-Zerfalls von a1 (1260) auf Konsistenz geprüft. Das dadurch erhaltene Resultat von Γa1--> ρπ= (443:962 ± 13:456) MeV liegt sehr gut in dem von der particle data group angegebenen Wertebereich der Gesamtbreite von a1 (1260). Die Festlegung und Berechnung der Kopplungskonstante b des Pseudovektor-Sektors war Gegenstand der Bachelorarbeit von Lisa Olbrich, so dass in dieser Arbeit nur die Resultate dieser Rechnung präsentiert wurden. Jedoch passen die dort erzielten Resultate auch mit guter Genauigkeit zu den experimentell bestimmten Werten der particle data group.
Das zweite Ziel dieser Bachelorarbeit war die Untersuchung der im Modell enthaltenen Mischungseffekte der Kaonen-Felder von K1 (1270) und K1 (1400). Zunächst waren im Axialvektor- und Pseudovektor-Nonet dieses Modells nur unphysikalische Kaonen-Felder K1;A und K1;B enthalten. Durch den Mischungsterm Lmix der Lagrange-Dichte des Modells existieren allerdings Mischterme beider Felder. Diese Mischterme wurden durch die Einführung der physikalischen Felder K1 (1270) und K1 (1400), welche durch eine SU(2)-Drehung aus den unphysikalischen Feldern hervorgehen, zum Verschwinden gebracht. Dies hat allerdings zur Folge, dass die Wechselwirkungsterme der physikalischen Felder K1 (1270) und K1 (1400) nun über eine gedrehte Kopplungskonstante koppeln. Diese gedrehte Kopplungskonstante ist eine Funktion der ursprünglich bestimmten Kopplungskonstanten a; b und eines Mischwinkels Φ. Dieser Mischungswinkel wurde von uns über den K? (892) π-Zerfall von K1 (1270) festgelegt. Anschließend konnten wir unter Verwendung des so berechneten Mischungswinkels Φ die Zerfallsbreite von K1 (1400) berechnen und mit den experimentell festgelegten Daten der particle data group vergleichen. Auch hier konnten wir eine gute Übereinstimmung unserer durch das Modell vorhergesagten Daten mit den experimentell bestimmten Werten erzielen.
Ziel der vorliegenden Arbeit ist es, den Wohnungsbau der letzten 15 Jahre im Frankfurter Europaviertel mit Hilfe David Harveys Raumökonomie des Kapitals zu betrachten. Dazu wird der Frage nachgegangen, inwiefern sich die im Europaviertel zu betrachtenden Urbanisierungs- und Investitionsprozesse mit Hilfe Harveys gesellschaftstheoretischer Raumökonomie erklären lassen. Zur Beantwortung dieser Frage wird eine Recherche und Analyse diverser Datenquellen aus Wissenschaft, Medien und Politik vorgenommen. Die Analyse der Quellen zeigt, dass Harveys an Karl Marx angelehnte Theorien der Urbanisierung des Kapitals und einer ‚uneven geographical development‘ aufschlussreiche Erklärungsmöglichkeiten für die Investitionsprozesse vor Ort liefern können. Die Betrachtung findet dabei auf einer makroökonomischen Ebene statt und bezieht die Finanzialisierung von Immobilien sowie die Miete von Wohnraum als mögliche Aspekte zur Sicherstellung der Kapitalzirkulation ein.
Supermassive black hole binaries (SMBHBs) are among the most powerful known sources of gravitational waves (GWs). Accordingly, these systems could dominate the stochastic gravitational wave background (GWB) in the micro- and millihertz frequency range. The time until the merger of two SMBHs in the nucleus of a galaxy can be shortened through dynamical friction due to the presence of dark matter (DM) spikes around the SMBHs. To calculate the orbital evolution of individual SMBHBs within the Newtonian approximation, the SMBHBpy code is developed. This work confirms that the GW signals from SMBHBs with DM spikes can be clearly distinguished from those without any matter. Making use of the upper limit on the characteristic strain of the GWB derived from the data of the Cassini spacecraft mission in 2001/2002, a lower limit on the matter density around SMBHBs is derived in this study. The result is subsequently compared with the theoretical density profiles for cold dark matter and self-interacting dark matter spikes.
In dieser Arbeit wurde der Entwurf eines Rebunchers für die Ionenstrahltherapieanlage MedAustron mit Hilfe des Simulationsprogramms Microwave Studio entwickelt. Es wurde ein neues Design in Anlehnung an einen Spiralresonator gewählt, wobei der Spiralarm aus einem wassergekühlten induktiven Teil und einem aus massivem Kupfer gefertigten kapazitiven Teil besteht.
Die Frequenz der ersten Eigenmode liegt zwischen 217,8 MHz (ohne Keramik) und 217,3 MHz (mit Keramik). In der Realität könnte die Frequenz von diesem Wert etwas abweichen (bis zu 0,5 MHz), da einerseits Details wie Ein- und Auskopplung und andererseits reale Effekte wie Oberflächenverunreinigung oder kleinste Abweichungen in der Geometrie in Microwave Studio nicht berücksichtigt werden können. Außerdem wird die Genauigkeit der Simulationen durch die Anzahl Gitterpunkte limitiert. Um diese Eekte kompensieren zu können, wurden die Auswirkungen eines Tuners auf die Frequenz untersucht. Hierbei ergab sich für eine Tunerhöhe von 40 mm eine Frequenzveränderung von 220 kHz, bei 70 mm sind es schon 1,224 MHz.
Da sich bei dieser Frequenz und Geometrie ein Laufzeitfaktor von nur 0,66 auf der Strahlachse ergibt und die Spannung dort zusätzlich um den Faktor 0,983 niedriger ist als am Spaltrand, muss bei einer effektiven Shuntimpedanz von 13,4 M Ω/m eine Leistung von 2,46 kW aufgebracht werden. Nähere Untersuchungen der elektrischen Felder fürten zu dem Ergebnis, dass der Grund für den niedrigen Laufzeitfaktor dynamische Eekte sein müssen. Die "statischen Felder" verhalten sich wie erwartet.
Aber auch die reale Shuntimpedanz und somit auch die reale Verlustleistung können beträchtlich von den berechneten Werten abweichen. Es wird erwartet, dass die Shuntimpedanz im ungünstigsten Fall nur 60% der simulierten Impedanz beträgt, weswegen man mit einer Verlustleistung von 4,09 KW rechnen muss.
Der Rebuncher soll zusammen mit der Beschleunigeranlage in Österreich im Jahr 2013 in Betrieb gehen, aber bereits in 2012 zu Strahlexperimenten am CERN zur Verfügung stehen.
140 Liter Wasser werden für die Herstellung einer Tasse Kaffee benötigt, 1.300 Liter Wasser für ein Kilo Gerste und 3.400 Liter Wasser für ein Kilo Reis. Diese Zahlen mögen im ersten Moment unglaubwürdig erscheinen, doch sie entsprechen der Wirklichkeit. Für die Herstellung von nahezu allen Produkten wird Wasser in teils sogar sehr großen Mengen benötigt. In dem Endprodukt jedoch findet sich meist nur ein kleiner Teil des ursprünglich eingesetzten Wassers in seiner physischen Form wieder. Der überwiegende Anteil wurde während des Produktionsprozesses verdunstet oder zur Kühlung eingesetzt und wird daher als „virtuelles Wasser“ bezeichnet. Aufgrund des Exports und Imports von Produkten im Zuge des internationalen Handels kommt es somit auch zu Strömen von virtuellem Wasser zwischen den einzelnen Ländern. In dieser Bachelorarbeit wird der virtuelle Wasserhandel mit 23 verschiedenen Feldfrüchten mit dem Fokus auf Deutschland für den Zeitraum von 1998 bis 2002 untersucht. In die Berechnung dieser virtuellen Wasserströme ist ein neuartiges Modell eingegangen, das Global Crop Water Model (GCWM), welches den virtuellen Wassergehalt für unterschiedliche Feldfruchtgruppen global für jede 5-Minuten-Zelle auf Basis detaillierter Daten berechnet. Dank dieses Modells ist es möglich, eine Trennung zwischen dem virtuellen Wasser, welches aus der Nutzung des Niederschlagswassers und dem virtuellen Wasser, welches aus der Bewässerung von Ackerflächen resultiert, vorzunehmen und diese getrennt von einander zu analysieren. Mittels der Verwendung der Handelsstatistik Comtrade der Vereinten Nationen lässt sich aus den Ergebnissen des GCWM der virtuelle Wasserhandel darstellen. Es zeigt sich, dass Deutschland das meiste Wasser in seiner virtuellen Form nach Algerien, Saudi-Arabien, Belgien und in die Niederlande exportiert, wohingegen aus Brasilien, den USA, Frankreich und der Elfenbeinküste die größten virtuellen Wassermengen importiert werden.
Deutsche Hochschulen wählen Studienbewerber üblicherweise anhand der Abiturnote aus. Zu beobachten ist aktuell ein Trend zu Online-Self-Assessments, die die Selbstselektion der Studierenden fördern sollen. Hierfür ist die Identifizierung guter Prädiktoren von Studienerfolg erforderlich. Stressverarbeitung ist in diesem Zusammenhang noch unzureichend erforscht. In der vorliegenden Studie nahmen 420 Studierende der Rechtswissenschaft, Wirtschaftswissenschaften und Psychologie an einer Online-Umfrage zu ihren Stressverarbeitungsweisen und ihren Abitur- und Studiennoten teil. Multiple Regressionsanalysen mit den Studiennoten als Kriterium, sowie der Abiturnote und den Stressverarbeitungsweisen als Prädiktoren identifizierten die Abiturnote mit zwischen 17% und 20% erklärter Varianz als stärksten Prädiktor und die Stressverarbeitungsweisen als zusätzliche Prädiktoren für Studierende der Rechtswissenschaft (zusätzliche 6,0%) und Wirtschaftswissenschaften (zusätzliche 7,5%), aber nicht für die Psychologiestudierenden. Die Analyse von Subgruppen (frühe und späte Studienphase) ergab bei den Juristen 5,8% zusätzliche Varianzaufklärung in der frühen und 14,8% in der späten Studienphase. Bei den Wirtschaftswissenschaftlern ergab sich nur für die aktuellen Bachelorstudierenden eine zusätzliche Varianzaufklärung (9,9 %), nicht aber für die Bachelorabschlussnoten der Masterstudierenden. Einfache Korrelationen stützten diese Ergebnisse und zeigten bei den Juristen in der späten Studienphase mehr signifikante Korrelationen als in der frühen; bei den Bachelorstudierenden der Wirtschaftswissenschaften zeigte sich ein deutlicher Trend zu mehr signifikanten Korrelationen in höheren Semestern. Die fehlende Prädiktionskraft der Stressverarbeitung für die Bachelorabschlussnote in den Wirtschaftswissenschaften könnte durch die Selektion der befragten Masterstudierenden erklärbar sein, während im Falle der Psychologiestudierenden zu vermuten ist, dass Stressverarbeitung insgesamt keine erhebliche Rolle für die Studiennoten spielt. Insgesamt zeigt diese Studie, dass Stressverarbeitung für bestimmte Fächer zusätzlich zur Abiturnote ein guter Prädiktor für die Studiennoten ist. Zukünftige Forschung sollte insbesondere darauf abzielen, die Erfassung studienrelevanter Stressverarbeitungsweisen kompakter als in der vorliegenden Studie zu gestalten, sodass sie für den ökonomischen Einsatz in Self-Assessments geeignet ist.
Large language models have become widely available to the general public, especially due to ChatGPT's release. Consequently, the AI community has invested much effort into recreating language models of the same caliber as ChatGPT, since the latter is still a technical blackbox. This thesis aims to contribute to that cause by proposing R.O.B.E.R.T., a Robotic Operating Buddy for Efficiency, Research and Teaching. In doing so, it presents a first implementation of a lightweight environment which produces tailor-made, instruction-following language models with a heavy focus on conversational capabilities that instruct themselves into a given domain-context. Within this environment, the generation of datasets, the fine-tuning process and finally the inference of a unique R.O.B.E.R.T. instance are all carried out as part of an automated pipeline.
Das Ziel dieser Arbeit ist, einen Text automatisch darauf zu untersuchen, ob er Gebäude beschreibt, und diese gegebenenfalls zu visualisieren. Zu diesem Zweck wurde ein Prototyp entwickelt, der mithilfe von NLP-Software auf Basis einer UIMA-Pipeline einen Text auf Gebäudedaten untersucht und diese anschließend als 3D-Modelle auf einer Karte visualisiert. Um die Güte des Projekts zu bestimmen wurde eine Evaluation durchgeführt, in der die Aufgabe darin bestand, Paragraphen ihren zugehörigen 3D-Modellen zuzuordnen. Die Ergebnisse wiesen eine Erkennungsrate von 88.67\% auf. Jedoch wurden auch Schwächen im Standardisierungsverfahren der Parameter und in der einseitigen Art zu Visualisieren aufgezeigt. Zum Schluss wird vorgestellt, wie diese Schwachstellen mithilfe eines ontologischen Modells behoben werden können und wie mit dem Projekt weiterverfahren werden kann.
Interactive Gorilla
(2010)
Beeindruckt von einer auf Annäherung reagierenden Dinosaurier-Animation des Brüsseler Naturkundemuseums, entstand die Idee einen noch komplexeren interaktiven Gorilla zu entwerfen. Der Gorilla soll dabei auf einer großen Leinwand dargestellt werden und die Besucher können mit diesem anhand ihrer Position interagieren, worauf er seine Tätigkeit und Gestik an diese anpasst.
Da keine Umsetzung, die durch gezielte Anpassungen das gewünschte Ergebnis liefern würde, vorhanden war, wurde das System im Rahmen dieser Arbeit angefertigt. Der Aufbau lässt sich dabei in drei große Module aufteilen, die auf den Ergebnissen des vorherigen Moduls arbeiten.
Zuerst wurde ein System entwickelt, mit dem es möglich ist die Besucher im Raum zu erfassen und festzustellen an welchen Positionen sie sich aufhalten. Diese Informationen werden von einer Verhaltenssimulation weiterverarbeitet. Diese ist durch einen endlichen Automaten realisiert, der auf einem Graphen operiert. Die Ergebnisse, die vom Erkennungssystem geliefert werden, sind dann dafür verantwortlich, dass sich das Verhalten entsprechend ändert. Zuletzt wird das aktuelle Verhalten des Gorillas mit Hilfe eines 3D-Modells und Animationen auf der Leinwand dargestellt.
Des weiteren sind im Rahmen dieser Arbeit zusätzliche Editoren entstanden um die Zustände des Graphen und die dadurch darzustellenden Animationen nachträglich anzupassen.
Im Rahmen dieser Arbeit wird darauf eingegangen, welche Anpassungen erforderlich sind, um Protonendichten vergleichbar zu bereits erzeugten Elektronendichten in Gabor-Linsen zu erhalten. Zur Vorbereitung zukünftiger Experimente werden vergleichende Simulationen zum Einschluss der Ladungsträgerdichten durchgeführt und die Strahldynamik bei der Wechselwirkung eines positiven Ionenstrahls mit einem in einer Gabor-Linse eingeschlossenen Protonenplasma untersucht. Die Ergebnisse der Strahldynamiksimulationen werden mit theoretischen Berechnungen vertieft, in dem die Brennweite einer Gabor-Linse, die mit einer beliebigen Teilchensorte gefüllt ist, berechnet und die Drift-Masse eingeführt wird.
Eine weitere analytische Betrachtung ist die Erweiterung der Teilchendynamik in der Gabor-Linse auf beliebige Anfangsbedingungen, in dem die dazugehörige Differentialgleichung entkoppelt und ganz allgemein gelöst wird. Die daraus berechneten Trajektorien der Teilchen führen zu einem besseren Verständnis, das weitere Anwendungen erschließen könnte.
Finanzderivate sind Produkte, die eine Möglichkeit bieten sich gegen künftige Preisschwankungen abzusichern oder auf eine zukünftige Preisentwicklung zu spekulieren. Die wichtigsten Arten von Finanzderivaten sind Optionen, Futures, Forwards und Swaps. Gegenstand vorliegender Bachelorarbeit werden ausschließlich Optionen sein. Auf den internationalen Finanzmärkten werden verschiedene Typen von Optionen gehandelt, weshalb sich die Frage des "fairen Preises" eines solchen Produktes stellt. Für viele gehandelte Optionen gibt es keine geschlossene Lösung zur Bestimmung des Preises, deshalb werden für diese numerische Verfahren zur Berechnung angewandt. Dabei muss beachtet werden, dass der Optionswert möglichst genau ist, jedoch sollte der Aufwand dabei ziemlich gering sein.
Ziel dieser Arbeit ist die Bestimmung eines numerischen Verfahrens, mit dem man europäische und amerikanische Multiasset-Optionen bewerten kann. Dieses Verfahren soll eine Erweiterung des bekannten Binomialverfahrens sein. Im Fokus steht dabei das Binomialverfahren, da es durch die Einschränkung auf zwei Entwicklungsmöglichkeiten in der Anwendung einfacher ist als das Black-Scholes-Modell. Dieses Verfahren ist nur für europäische und amerikanische Standard-Optionen definiert. Bei der Erweiterung muss beachtet werden, dass Multiasset-Optionen von mehreren Wertpapieren abhängen. In der Arbeit wird ein Produktbinomialverfahren entwickelt, das die Anzahl der Wertpapiere in der Dimension der entstehenden Bäume berücksichtigt. Dieses Verfahren konvergiert gegen das mehrdimensionale Black-Scholes-Modell und ist zu dessen graphischer Darstellung geeignet. Es wird jedoch auch gezeigt, dass dieses dem Fluch der Dimension unterliegt und somit der Aufwand für einen möglichst genauen Optionswert ziemlich hoch ist. Die Erweiterung dieses Verfahrens durch Dünne Gitter erzielt eine Optimierung der Laufzeit. Da der Fokus dieser Bachelorarbeit jedoch auf dem Produktbinomialverfahren liegt, wird im Folgenden auf diese Erweiterung nicht eingegangen.
In this thesis we discussed the expansion behaviour of an ultracold bosonic gas from an initial harmonic confinement. We studied the reaction of the non-interacting system to changes of the trap frequency ω and of the strongly interacting system to changes of the number of Mott insulating particles NMI in the initial state and the interaction U/J. The total number of particles is kept constant for the different simulations, which are performed by means of the Bosonic Gutzwiller approach...
Natural Language Processing (NLP) for big data requires an efficient and sophisticated infrastructure to complete tasks both fast and correctly. Providing an intuitive and lightweight interaction with a framework that abstracts and simplifies complex tasks assists in reaching this goal. This bachelor thesis extends the NLP framework Docker Unified UIMA Interface (DUUI) by an API and a web-based graphical user interface to control and manage pipelines for automated analysis of large quantities of natural language. The extension aims to reduce the entry barrier into the field as well as to accelerate the creation and management of pipelines according to UIMA standards. Pipelines can be executed in the browser or using the web API directly and then monitored on a document level. The evaluation in usability and user experience indicates that the implementation benefits the framework by making its usage more user friendly, lightweight, and intuitive while also making the management of pipelines more efficient.
In dieser Bachelorarbeit werden verschiedene Methoden zur Bestimmung der Betriebsfrequenz von CH-Kavitäten untersucht. Aufgrund der geometrisch komplexen Form der Beschleunigungsstruktur, können die Eigenfrequenzen nicht mithilfe von analytischen Methoden bestimmt werden. Üblicherweise werden die Eigenfrequenzen, ihre Ladungsund Stromdichten, sowie die elektromagnetischen Felder über numerische Methoden der Computational Electromagnetics (CEM) ermittelt. Die CEM ist eine junge Disziplin, deren Performanz und Anwendungsgebiete in den letzten 20 Jahren rapide gewachsen sind. Hauptverantwortlich hierfür ist zum einen das exponentielle Wachstum der Rechenleitung bei gleichbleibenden Kosten, zum anderen die Entwicklung und Verbesserung der Algorithmen. Bis zum Ende des letzten Jahrhunderts wurden elektronische Komponenten hauptsächlich dadurch entwickelt, indem Prototypen angefertigt und analysiert wurden. Diese zeitaufwendige und kostspielige Herangehensweise ist heutzutage nahezu vollständig durch CEM-Simulationen ersetzt worden. Die Hauptmethoden der CEM sind die Finite-Differenzen-Methode (FDM), die Momenten-Methode (MoM) und die Finite-Elemente-Methode (FEM). Für die Bestimmung der Eigenwerte und Eigenvektoren der Beschleunigungsstrukturen eignet sich aufgrund der Stabilität von diesen Dreien am besten die Methode der finiten Elemente. Da die FEM ein rechen- und speicherintensives Verfahren ist, wurde in dieser Arbeit nach einer schnelleren Methode gesucht, um die Betriebsfrequenz von CH-Kavitäten zu bestimmen. Hierfür wurden 84 CH-Kavitäten mithilfe von CST Studio Suite erstellt und simuliert. Es handelt sich hierbei um vier Grundtypen, drei wurden bei einer fixierten Sollfrequenz von 300 MHz konstruiert; die Sollfrequenz des vierten Grundtyps betrug 175 MHz. Die Teilchengeschwindigkeit wurde jeweils in 0,01er-Schrtitten von 0,05 c bis 0,25 c variiert. Aus den Untersuchungen der EM-Felder wurde anschließend ein semi-analytisches Modell entwickelt, das aufgrund der Geometrie der CH-Kavität die Betriebsfrequenz liefern soll.
Das Phänomen Straßenmusik: Teil einer städtischen Identität? : eine Analyse am Fallbeispiel Dublin
(2019)
The objective of this work is to understand the significance of street music for the city of Dublin and to what extent street music is part of the collective identity of its inhabitants. The idea behind this topic is this: A modern city stands for concentrated diversity. Despite this enormous diversity of people, ideas and beliefs, there are certain factors that every identity in a city shares: in this case, it is the street music. The work first introduces the research „Das Dublin Projekt. Die Rolle der Straßenmusik in der Hauptstadtkultur" (The Dublin Project. The role of street music in the capital city culture) of 2018 and uses selected points of analysis to illustrate the observed high value of street music as well as the process of the research and an overview of the applied scientific methods. In the second part of this work, the actual research-thesis will be explained and various theories on „identity" will be illustrated. For this purpose, selected theories are used to interpret the own findings with regard to the research-thesis. The focus here is on urban and collective identity theories. Finally, the answers to the questions posed will be given as well as an outlook on possible, supplementary and further research. Medial support of this work comes from attached photos of the described scenes as well as from map sections showing the distances covered and the hotspots of the research.
Entwicklung und Untersuchung verschiedener Elektrodenkonfigurationen eines gepulsten Plasmajets
(2012)
Im Zentrum der vorliegenden Arbeit steht die Frage nach dem formalen und inhaltlichen Zusammenhang zwischen den künstlerischen Ausdrucksformen in der gegenwärtigen syrischen Kunst und dem Expressionismus. Es soll untersucht werden in welchem Verhältnis die beiden Richtungen zueinander stehen und welche Unterschiede oder auch vergleichbaren Ausdrucksmittel in der jeweiligen Kunstrichtung entwickelt werden. Der Expressionismus eignet sich für den Vergleich gut, weil in dieser Epoche ebenso kriegerische Auseinandersetzungen verarbeitet wurden.
Die Grundlage für diese Untersuchung bilden unter anderem meine persönlichen Begegnungen mit syrischen Künstlern in der Türkei und in Deutschland, die mich inspiriert haben, dieses Thema zu wählen. Die Auseinandersetzung mit ihrer Art den Krieg zu verarbeiten hat mich angeregt, weitere Information darüber zu sammeln, wie sich die Kunst während des Ersten Weltkriegs mit der Kunst während des Syrischen Bürgerkriegs vergleichen lässt.
In dieser Arbeit wurden Web Browser bezüglich ihrer Eignung zum Erstellen interaktiver eLearning Fragen untersucht. Vor dem Hintergrund der speziellen Charakteristika von mobilen Endgeräten wurden insbesondere die Aspekte der Beschränkung auf standardisierte Technologien, sowie die Clientseitigkeit der Applikation hervorgehoben. Es konnte eine Grundlage geschaffen werden, die das Erstellen von interaktiven Fragen nur mit Hilfe von HTML und Javascript ermöglicht und es wurde ein weitgehender Verzicht auf serverseitige Komponenten erreicht.
Diese Arbeit beschäftigt sich mit der konkreten Erzeugung von 2-3D Visualisierung. Im Fokus steht der notwendige Prozess zur Erzeugung von Computergrafik.
Da die Computergrafik heut zu Tage wichtiger Bestandteil vieler Aufgabengebiete ist, sollte deren Nutzung auch allen Menschen zugänglich sein. In den vergangen Jahren blieb dies meist nur Leuten aus den Fachgebieten vorbehalten, aufgrund der Komplexität und des notwendigen „Know-how“ über die Thematik. Mittlerweile gilt diese Tatsache als überholt. Viele Erneuerung im Bereich von Hardware und Software haben es ermöglicht, dass selbst ungeübte Anwender in der Lage sind, ansehnliche 3D Grafiken an ihren PCs bei der Arbeit oder zu Hause zu erzeugen. Dies soll ebenfalls das Ziel dieser Arbeit sein. Dazu wird in eine Applikation erstellt die die Visualisierung von graphischen Primitiven unter der Verwendug von Microsofts DirectX leicht und schnell ermöglichen soll. Als Basis dient ein Rendering-Framework, welches auf einheitliches Schnittstellenkonzept setzt, um die strikte Trennung zwischen Anwender- und Fachwissen zu vollziehen.
Weitere Schwerpunkte dieser Arbeit liegen im Bereich der Modellierung von graphischen Primtiven und der Nutzung von Shadern. Dazu wird in der Modellierung der Import von archivierten Modellen umgesetzt. Die Nutzung von Shadern soll soweit vereinfacht werden, dass Anwender auf Shader beleibig zugreifen können. Dies soll durch eine Verknüpfung zwischen Shadern und Modellen erfolgen, die ebenfalls im Bereich der Modellierung erfolgt.
Wie können Optionen bewertet werden, zu denen keine geschlossenen Lösungen existieren? Die Antwort lautet: Numerische Verfahren. In Hinblick auf diese Frage wurden in der Vergangenheit meist Baumverfahren, Finite-Differenzen- oder Monte-Carlo-Methoden herangezogen. Im Gegensatz dazu behandelt diese Bachelorarbeit den Einsatz von Quadraturverfahren (QUAD) bei der Bewertung von exotischen Optionen, also Optionen, die kompliziertere Auszahlungsstrukturen besitzen wie einfache Standard-Optionen. Die Grundidee besteht darin, den Optionswert als mehrdimensionales Integral in eindimensionale Integrale zu zerlegen, die daraufhin durch Quadraturformeln approximiert werden...Die Genauigkeit des Verfahrens wird erhöht, indem die Schrittweite der Quadraturformel h verkleinert wird. Dies hat allerdings zur Folge, dass sich der Rechenaufwand erhöht. QUAD jedoch schafft es, durch Reduzierung der Dimension und Ausnutzung der herausragenden Konvergenzeigenschaften von Quadraturformeln eine hohe Genauigkeit bei gleichzeitig geringen Rechenkosten zu erreichen.
Die Methode ist allgemein anwendbar und zeigt insbesondere beim Preisen von pfadabhängigen Optionen mit diskreten Zeitpunkten ihre Stärken. Als Anwendungsbeispiele betrachten wir deshalb folgende Optionstypen: Digitale-, Barrier-, Zusammengesetzte-, Bermuda- und Lookback Optionen. Ferner existieren entsprechende Verfahren für Asiatische- oder Amerikanische Optionen, für die jedoch mehr Vorarbeit notwendig ist.
Der große Vorteil von QUAD gegenüber anderen numerischen Verfahren liegt in der Vermeidung eines (bedeutsamen) Verteilungsfehlers und in der Tatsache, dass keine Bedingungen an die Auszahlungsfunktion gestellt werden müssen. Baum- oder Finite-Differenzen-Verfahren reduzieren zwar durch Gitterverfeinerung den Verteilungsfehler, allerdings geht dies Hand in Hand mit deutlich höheren Rechenzeiten. Zum Beispiel benötigt ein Baumverfahren für die doppelte Exaktheit einen vierfachen Rechenaufwand, während die QUAD Methode bei einem vierfachen Rechenaufwand die Exaktheit mit Faktor 16 erhöht (bei Extrapolation steigt dieser Faktor bis 256).
QUAD kann als "der perfekte Baum" angesehen werden, da es ähnlich zu Multinomialbäumen auf Rückwärtsverfahren zurückgreift, andererseits aber die hohe Flexibilität besitzt, Knoten frei und in großer Anzahl zu wählen. Des Weiteren gehen nur die den Optionspreis bestimmenden Zeitpunkte in die Bewertung mit ein, sodass auf zwischenzeitliche Zeitschritte gänzlich verzichtet werden kann.
Die eigentliche Arbeit gliedert sich in sechs Abschnitte. Zunächst erfolgt eine Einführung in allgemeine Quadraturverfahren, exotische Optionen und das Black-Scholes-Modell, was im Anschluss den Übergang zum Lösungsansatz liefert. Dieser Abschnitt schließt mit einer geschlossenen Integrallösung für Optionen, die der Black-Scholes-Differentialgleichung folgen, ab. In Abschnitt 4 wird die genaue Untersuchung der QUAD Methode vorgenommen. Unter Verwendung des in Abschnitt 5 vorgestellten Algorithmus wird anschließend in Abschnitt 6 die QUAD Methode auf die zuvor genannten Optionsklassen angewandt. Die entsprechenden Resultate werden am Ende dieses Teils in Tabellen und Graphiken präsentiert. Den Abschluss bildet das Fazit und die Zusammenfassung der Ergebnisse.
Diese Bachelorarbeit befasst sich mit der Themenklassifikation von unstrukturiertem Text. Aufgrund der stetig steigenden Menge von textbasierten Daten werden automatisierte Klassifikationsmethoden in vielen Disziplinen benötigt und erforscht. Aufbauend auf dem text2ddc-Klassifikator, der am Text Technology Lab der Goethe-Universität Frankfurt am Main entwickelt wurde, werden die Auswirkungen der Vergrößerung des Trainingskorpus mittels unterschiedlicher Methoden untersucht. text2ddc nutzt die Dewey Decimal Classification (DDC) als Zielklassifikation und wird trainiert auf Artikeln der Wikipedia. Nach einer Einführung, in der Grundlagen beschrieben werden, wird das Klassifikationsmodell von text2ddc vorgestellt, sowie die Probleme und daraus resultierenden Aufgaben betrachtet. Danach wird die Aktualisierung der bisherigen Daten beschrieben, gefolgt von der Vorstellung der verschiedenen Methoden, das Trainingskorpus zu erweitern. Mit insgesamt elf Sprachen wird experimentiert. Die Evaluation zeigt abschließend die Verbesserungen der Qualität der Klassifikation mit text2ddc auf, diskutiert die problematischen Fälle und gibt Anregungen für weitere zukünftige Arbeiten.