Refine
Year of publication
- 2021 (7) (remove)
Document Type
- Master's Thesis (7) (remove)
Has Fulltext
- yes (7)
Is part of the Bibliography
- no (7)
Keywords
- ALICE (1)
- Activism (1)
- Bodenpolitik (1)
- Computational Data Analysis (1)
- Continuous Integration (1)
- Coronaproteste (1)
- Digital Divide (1)
- Ethnomethodologie und Kategorienanalyse (1)
- FEBID (1)
- Fluctuation Spectroscopy (1)
Institute
Under pressure? : "Querdenken" - Kollektivierung als Praxisproblem einer Bewegung unter Druck
(2021)
Die vorliegende Arbeit untersucht eine lokale Telegram-Chatgruppe der Corona-Protestbewegung „Querdenken“ hinsichtlich deren Kollektivierungspraktiken. Das Erkenntnisinteresse liegt darin, zu untersuchen, wie die Gruppe in einer Zeit, in der durch häufige Demonstrationsverbote hoher Druck von außen auf sie einwirkt, Gemeinschaft herstellt. Analysiert werden dabei symbolische Grenzziehungspraktiken sowie die Mobilisierung leerer Signifikanten und – um einen Blick auf Kollektivierung als Praxisproblem zu werfen – die Konflikte, die innerhalb der Gruppe herrschen. Dabei zeigt sich eine antagonistische Identitätskonstitutionslogik, die sich anhand der privilegierten Signifikanten Demokratie vs. Diktatur konstituiert. Diese entwickeln ihre identitätsstiftende Kraft vor allem in der Attribution zu verschiedenen Subjektpositionen, von denen ‚die Politik‘ die zentrale Abgrenzungsposition für die Querdenker*innen darstellt. Weiterhin zeigt sich, dass die strategischen Konflikte, die aus dem Druck von außen resultieren, kontextabhängig gleichermaßen zersetzende wie integrative Kräfte entwickeln.
When performing transfer learning in Computer Vision, normally a pretrained model (source model) that is trained on a specific task and a large dataset like ImageNet is used. The learned representation of that source model is then used to perform a transfer to a target task. Performing transfer learning in this way had a great impact on Computer Vision, because it worked seamlessly, especially on tasks that are related to each other. Current research topics have investigated the relationship between different tasks and their impact on transfer learning by developing similarity methods. These similarity methods have in common, to do transfer learning without actually doing transfer learning in the first place but rather by predicting transfer learning rankings so that the best possible source model can be selected from a range of different source models. However, these methods have focused only on singlesource transfers and have not paid attention to multi-source transfers. Multi-source transfers promise even better results than single-source transfers as they combine information from multiple source tasks, all of which are useful to the target task. We fill this gap and propose a many-to-one task similarity method called MOTS that predicts both, single-source transfers and multi-source transfers to a specific target task. We do that by using linear regression and the source representations of the source models to predict the target representation. We show that we achieve at least results on par with related state-of-the-art methods when only focusing on singlesource transfers using the Pascal VOC and Taskonomy benchmark. We show that we even outperform all of them when using single and multi-source transfers together (0.9 vs. 0.8) on the Taskonomy benchmark. We additionally investigate the performance of MOTS in conjunction with a multi-task learning architecture. The task-decoder heads of a multi-task learning architecture are used in different variations to do multi-source transfers since it promises efficiency over multiple singletask architectures and incurs less computational cost. Results show that our proposed method accurately predicts transfer learning rankings on the NYUD dataset and even shows the best transfer learning results always being achieved when using more than one source task. Additionally, it is further examined that even just using one task-decoder head from the multi-task learning architecture promises better transfer learning results, than using a single-task architecture for the same task, which is due to the shared information from different tasks in the multi-task learning architecture in previous layers. Since the MOTS rankings for selecting the MTI-Net task-decoder head with the highest transfer learning performance were very accurate for the NYUD but not satisfying for the Pascal VOC dataset, further experiments need to varify the generalizability of MOTS rankings for the selection of the optimal task-decoder head from a multi-task architecture.
Die folgende Arbeit handelt von einer Text2Scene Anwendung, welche in der Virtual Reality (VR) umgesetzt wurde. Das System ermöglicht es den Usern aus einer Beschreibung einer Szene, diese virtuell nachzustellen. Dies bietet eine neue Art der Interaktion mit einem Text, die die visuelle Komponente hervorhebt und somit eine Geschichte auf neue Wege erfahrbar macht.
Dazu kann der User einen fertigen Text entweder vom Server zu laden oder einen eigenen erstellen, der dann automatisch verarbeitet wird. Dabei werden die vorhanden physischen Objekte im Text automatisch erkannt und dem User als 3D-Objekte in der virtuellen Umgebung zur Verfügung gestellt. Diese können dann manuell platziert werden und erzeugen dadurch die Szene, die im Ausgangstext beschrieben wurde. Das Ziel der Textverarbeitung ist eine möglichst genaue Beschreibung der Objekte, damit diese zielgerichtet in der Objektdatenbank gesucht werden können.
Bei der Textverarbeitung wird besonderer Wert auf das Erkennen von Teil-Ganz Beziehungen gelegt. Sodass Objekte, die im Text vorkommen und ein Holonym besitzen, automatisch mit diesem verknüpft werden. Gleichzeitig wird die Teil-Ganz Beziehung aber auch in die andere Richtung genauer betrachtet. Die Textverarbeitung soll ferner dazu in der Lage sein, Objekte genauer zu spezifizieren und an den Kontext des Textes anzupassen. Weiterhin wurde das Natural Language Processing (NLP) so ausgebaut, dass der Kontext des Textes erkannt wird und die Objekte entsprechend kategorisiert werden. Die Textverarbeitung wird mithilfe eines Neuronalen Netzes implementiert. Die verwendeten Tools zur Erkennung von Teil-Ganz Beziehungen, Kontext und Spezifikation von Objekten wurden anhand von Texteingaben nach der Genauigkeit der Ausgabe evaluiert.
Zur Nutzung der Textverarbeitung wurde eine virtuelle Szene entwickelt, die das Erstellen von eigenen Szenen aus vorher geladenen beziehungsweise eingegebenen Texten ermöglicht.
Dazu kann der Nutzer manuell oder automatisch Objekte laden lassen, die er dann platzieren kann.
Computational workflow optimization for magnetic fluctuation measurements of 3D nano-tetrapods
(2021)
The detailed understanding of micro–and nanoscale structures, in particular their magnetization dynamics, dominates contemporary solid–state physics studies. Most investigations already identified an abundance of phenomena in one–and two–dimensional nanostructures. The following thesis focuses on the magnetic fingerprint of three–dimensional CoFe nano–magnets, specifically the temporal development of their hysteresis loop. These nano–magnets were grown in a tetrahedral pattern on top of a highly susceptible home–build GaAs/AlGaAs micro–Hall sensor using focused electron beam induced deposition (FEBID).
During the measurements, utmost efforts were employed to exemplify current best research practices. The data life cycle of the present thesis is based upon open–source data science tools and packages. Data acquisition and analysis required self–written automated algorithms to handle the extensive quantity of data. Existing instrumental-controlling software was improved, and new Python packages were devised to analyze and visualize the gathered data. The open–source Python data analysis framework (ana) was developed to facilitate computational reproducibility. This framework transparently analyses and visualizes the gathered data automatically using Continuous Analysis tools based on GitLab and Continuous Integration. This automatization uses bespoke scripts combined with virtualization tools like Docker to facilitate reproducible and device–independent results.
The hysteresis loops reveal distinct differences in subsequently measured loops with identical initial experimental parameters, originating from the nano–magnet’s magnetic noise. This noise amplifies in regions where switching processes occur. In such noise–prone regions, the time–dependent scrutinization reveals presumably thermally induced metastable magnetization states. The frequency–dependent power spectral density uncovers a characteristic 1/f² behavior at noise–prone regions with metastable magnetization states.
The internet has often been considered a 'technology of freedom' – a nearly revolutionary tool believed to flatten social hierarchies and democratize access to media by 'giving voice' to everybody equally. Contradictory to this point of view, research has shown the existence of a 'digital divide,' the phenomenon that access to and use of the internet, as well as the outcomes derived from this use, correlate with pre-existing inequalities.
Based on ethnographic fieldwork among activists in Dakar, Senegal, this thesis analyzes how inequalities shape and are shaped by the relationships between activists and smartphones. Do smartphones indeed flatten social hierarchies, or are inequalities rather reproduced – or even reinforced – through them?
During RUN3 (2021-2023) of the Large Hadron Collider, the Time Projection Chamber (TPC) of ALICE will be operated with quadruple stacks of Gas Electron Multipliers (GEMs). This technology will allow to overcome the rate limitation due to the gated operation of the Multi-Wire Proportional Chambers (MWPCs) used in RUN1 (2009-2013) and RUN2 (2015-2018).
As part of the Upgrade project, long-term irradiation tests, so called "ageing tests", have been carried out. A test setup with a detector using a quadruple stack of 10x10cm2 GEMs was built and operated in Ar-CO2 and Ne-CO2-N2 gas mixtures. The detector performance such as gas gain and energy resolution were monitored continuously. In addition, outgassing tests of materials used for the assembly process of the upgraded TPC were performed. To reach the expected dose of the GEM-based TPC, the detector was operated at much higher gains than the TPC. It was found, that the GEMs could keep their performance within the projected lifetime of the TPC. Most of the tested materials showed no negative impact on the detector. For the tested epoxy adhesive no certain conclusion could be drawn.
At much higher doses than expected for the upgraded TPC, a new phenomenon was observed, which changed the hole geometry of the GEMs and led to a degradation of the energy resolution. Even though its occurrence is not expected during the lifetime of the GEM-based TPC, simulations were carried out to study this effect more systematically. The simulations confirmed, that a change of the hole geometries of the GEMs, lead to an increase of the local gain variation, which results in a decrease of the energy resolution.
Furthermore the effect of methane as quench gas on GEMs was studied, even though this gas is not foreseen to be used in the TPC. From ageing tests with single-wire proportional counters it is well known that hydrocarbons are produced in the plasma of the avalanches, which cover the electrodes and lead to a degradation of the detector performance. Even though GEMs have a quite different geometry, the ageing tests showed, that also this technology tends to methane-induced ageing. A loss of gas gain as well as a degradation of the energy resolution due to deposits on the electrodes was monitored. A qualitative and quantitative comparison between ageing in GEMs and proportional counters was performed.
In den letzen 30 bis 40 Jahren sind Kommunen verstärkt dazu übergegangen die in ihrem Besitz befindlichen Flächen zu verkaufen und so ihre kommunalen Gestaltungsspielräume zu verlieren. Diese Privatisierungspolitik der „unternehmerischen Stadt“ hat verkannt, dass Boden für Kommunen ein endliches und essentielles Gut ist, welches nicht vermehrt werden kann.
Gerade in den lokalen Räumen der Kommunen wird der Kampf um den begrenzten Boden besonders sichtbar. Das Alltagsleben der Menschen wird dadurch bestimmt, ob Boden im Privateigentum ist und vorrangig der Kapitalvermehrung dient oder ob Boden ein gesellschaftliches Gemeingut ist. Die Privatisierung neoliberaler Kommunalpolitik hat – entgegen der Erwartungen – weder das Leben in den Städten besser noch günstiger gemacht. Die Kosten für Mieten und die privatisierten Leistungen aus Daseinsvorsorge sind in den letzten Jahrzehnten extrem gestiegen. Letztere wurden z. T. auch verkleinert oder vollkommen aufgegeben, wie z. B. der öffentliche Nahverkehr in ländlichen Räumen oder die Schließungen von Kultureinrichtungen, Jugendzentren oder Schwimmbädern.
Auf diese Phase neoliberaler Bodenpolitik ist zunehmend eine polanyische Gegenbewegung zu beobachten, die für den sozial-ökologischen Schutz eintritt. Die Menschen in den Kommunen wollen und können diese Entwicklung nicht weiter hinnehmen. Und auch die Lokalpolitik schwenkt z. T. um, indem sie Forderungen der Rekommunaliserung und sozialverträglicher Mieten unterstützt.
Trotz dieser progressiven Entwicklungen ist gerade die Vergabe von Gewerbeflächen nach wie vor durch ein neoliberales Paradigma der Standortkonkurrenz und Austerität geprägt. In diesem Sinne muss die Vergabe von Boden zuallererst ökonomisch sinnvoll sein. Andere Aspekte werden oft ausgeklammert, da sie unter Finanzierungsvorbehalt stehen. Diese Vergabepraxis ist quasi alternativlos und damit postpolitisch. Obwohl diese Entscheidungen die Kommunen langfristig prägen, werden soziale und ökologische Aspekte der ökonomischen Frage untergeordnet. Die Berücksichtigung von Gemeinwohlaspekten, die sich in einem Kriterienkatalog zur Gewerbeflächenvergabe wiederfinden können, bietet Kommunen die Möglichkeit, eine andere – gemeinwohlorientierte – Handlungsrationalität einzunehmen. Die Entscheidungsgrundlage für die Gewerbeflächenvergabe würden mit solchen Kriterien grundlegend neu justiert werden, da sie nicht mehr auf rein ökonomischen, sondern auf sozialen und ökologischen Werten beruht.
Die vorliegende Arbeit beschäftigt sich mit der Frage, wie eine gemeinwohlorientierte Gewerbeflächenvergabe gestaltet werden kann, indem sie die kommunalen Handlungsspielräume erweitert und so einen Beitrag für eine sozial-ökologische Gegenbewegung zur neoliberalen Kommunalpolitik leistet. Sie kommt zu dem Ergebnis, dass für eine kommunale sozial-ökologische Transformation die Wirtschaft wieder stärker in die Gesellschaft eingebettet werden muss (Polanyi 1944). Eine dementsprechende Gewerbeflächenvergabe setzt daher auf die Dekommodifizierung der Flächen, d. h. sie fördert öffentliche und kollektive Eigentumsformen. Außerdem fördert sie kollektive sozial-ökologische Nutzungsformen der Flächen, die dem Gemeinwohl der Bewohner*innen in der Region dienen. Zur Umsetzung könnten Kommunen Gemeinwohl-Kriterien zur Gewerbeflächenvergabe aufstellen. In der vorliegenden Arbeit wird hierzu ein möglicher Kriterienkatalog entwickelt.