Universitätspublikationen
Refine
Year of publication
Document Type
- diplomthesis (33) (remove)
Language
- German (33) (remove)
Has Fulltext
- yes (33)
Is part of the Bibliography
- no (33)
Keywords
- Agentieller Realismus (1)
- Akteur-Netzwerk-Theorie (1)
- Algorithmus (1)
- Arbeitsmarktpolitik (1)
- Barad, Karen (1)
- Benachteiligtenförderung (1)
- Bibliographie (1)
- Care & Migration (1)
- Coaching (1)
- Diskursanalyse (1)
Institute
- Physik (16)
- Gesellschaftswissenschaften (4)
- Erziehungswissenschaften (3)
- Mathematik (3)
- Informatik (2)
- Biowissenschaften (1)
- Geographie (1)
- Geowissenschaften (1)
- Sportwissenschaften (1)
- Universitätsbibliothek (1)
In dieser Arbeit wurde die Zentralitätsabhängigkeit der K0S -Produktion in Pb+Pb Stößen für 40A und 158A GeV untersucht. Sie wurden über den Zerfallskanal K0S → π+π− der schwachen Wechselwirkung nachgewiesen und bilden zusammen mit den geladenen Kaonen den Großteil der entstehenden Strangeness einer Kollision. Die Bestimmung der Zentralität erfolgte anhand der im Veto-Kalorimeter detektierten Spektatoren. Die Messergebnisse unterliegen aufgrund der limitierten geometrischen Akzeptanz des Detektors, Effizienzverlusten in der V 0-Rekonstruktion und gewählter Qualitätskriterien einigen Verlusten. Auf diese Verluste konnte mit Hilfe eines Simulationsverfahren, dem so genannten Embedding, korrigiert werden. Dabei wurden Korrekturfaktoren für differentielle Phasenraumbereiche ermittelt und auf die gemessenen Signalinhalte der invarianten Massenspektren angewendet. Des Weiteren wurde eine Vielzahl von Studien durchgeführt um die Stabilität der Ergebnisse im Rahmen eines systematischen Fehler zu bestimmen.
Die korrigierten Transversalimpuls-Spektren und Spektren der invarianten Massen verschiedener Phasenraumbereiche und Zentralitäten wurden präsentiert. Darüber hinaus wurden der inverse Steigungsparameter, die Rapiditätsspektren, sowie die berechneten Gesamtmultiplizitäten der K0S in Abhängigkeit der Zentralität und anhand der "wounded" Nukleonen diskutiert. Die Ergebnisse konnten mit vorangegangenen Analysen von NA49, NA57 und CERES verglichen werden. Dabei wurden insbesondere geringe Unstimmigkeiten mit den NA49-Ergebnissen der geladenen Kaonen bei 158A GeV festgestellt. Des Weiteren wurde die Diskrepanz zu den NA57-Ergebnissen, welche aus Analysen anderer Teilchensorten bekannt ist, für mittlere Rapiditäten bestätigt. Die Zentralitäatsabhängigkeit der Ergebnisse wurde zusätzlich mit UrQMD-Modellrechnungen geladener Kaonen verglichen und kann durch diese näherungsweise beschrieben werden.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung und dem Aufbau eines IHBeschleunigers zur Beschleunigung schwerer Ionen am Brookhaven National Laboratory.
Es wurde eine Einführung in die Arbeit und die Experimente des BNL gegeben, um zu verstehen, welche Aufgabe die IH in Zukunft haben wird und wie diese das BNL in den experimentellen Möglichkeiten erweitert.
Eingebettet in den historischen Kontext wurde zu Beginn die Familie der H-Moden Beschleuniger und ganz besonders die IH erläutert. Wichtige Begriffe und charakteristische Größen, die zum Verständnis der vorliegenden Arbeit nötig sind, wurden eingeführt und deren anschauliche Bedeutung bei der Entwicklung von Beschleunigern klar gemacht.
Eine Neuerung bei der Entwicklung von Driftröhrenbeschleunigern stellt der aufgebaute Messstand und die Computergestützte Datenanalyse dar. Es konnte gezeigt werden, dass die vorgestellte Methodik zur Verarbeitung der Messdaten enorme Verbesserungen mit sich bringt. Daten von unterschiedlichsten Beschleunigern könnern schneller als zuvor analysiert und direkt mit den Sollwerten der Strahldynamik verglichen werden. So kann bereits vor Ort eine mit nur geringen Fehlern behaftete Auswertung erstellt werden und direkt in die weitere Arbeit an einem Beschleuniger mit einfließen.
Die neue Technik wurde im weiteren Verlauf der Arbeit genutzt, um die im Detail eingeführte BNL IH Struktur aufzubauen und für den Einsatz in den USA fertig zu stellen. Neben den exakt auszuführenden Aufbau- und Justierarbeiten wurde viel Zeit in die Erstellung eines ausgereiften Tuningkonzepts investiert. Während dieser Arbeiten wurden die zwar theoretisch bekannten, am Institut aber noch nie nachgewiesenen, parasitären Tunerresonanzen beobachtet. Der zerstörerische Effekt einer solchen Resonanz konnte erstmals gemessen und analysiert werden.
Trotz der üblichen kleineren Schwierigkeiten, die komplexe Projekte mit sich bringen wurde die IH Struktur noch vor Beendigung dieser Arbeit in den USA am BNL aufgestellt und getestet. Es wurde noch nicht die volle Leistung erreicht, aber der Konditionierungsprozess ist in vollem Gange und die vorläufigen Ergebnisse zeigen keine Probleme auf, so dass davon auszugehen ist, dass die IH noch dieses Jahr voll eingesetzt werden kann.
Abschließend kann man sagen, dass das Projekt erfolgreich realisiert wurde und das die Neuerungen aus dieser Arbeit Einzug in weitere Projekte finden werden.
Transnationale Verlagerung von Care-Arbeit in Hinblick auf Ausbeutungs- und Emanzipationsaspekte
(2010)
Nationalparke haben nicht nur den Zweck, Ökosysteme auf einer ausreichend großen Fläche sich selbst zu überlassen, damit sich ein ökologisches Gleichgewicht einstellen kann, sondern sie sind auch öffentlich zugänglich.
Umweltbildung in Nationalparken bezweckt, Kenntnisse über und Begeisterung für die Nationalparke zu vermitteln, so daß der Wert dieses Raumes erfaßt und Interesse an dessen Schutz geweckt wird. Ein Beitrag zur allgemeinen Umweltbildung wird geleistet, wenn der Besucher seine Erfahrungen im Nationalpark auf alle Lebensbereiche übertragen kann. Da nur die wenigsten Besucher personengebundene Umweltbildungsarbeit, die in Form von geführten Wanderungen in jedem deutschen Nationalpark angeboten wird, in Anspruch nehmen, ist eine geeignete Umweltbildung durch Öffentlichkeitsarbeit erforderlich.
Alle Nationalparke bieten Informationen über die naturräumlichen Gegebenheiten und über Beeinträchtigungen der Ökosysteme an. Umfang und Qualität der Ausstellungen, Printmedien, Informationstafeln in der Natur und audiovisueller Medien variieren beträchtlich. Informationsmedien sind nicht immer geeignet, auf das Erlebnis Natur vorzubereiten und umfassende Informationen zu vermitteln. In den meisten Informationshäusern wird "ein Stück Natur" in die Ausstellung geholt, die dort ausgiebig betrachtet oder angefaßt werden kann; Hören und Riechen spielen noch eine untergeordnete Rolle. Beeinträchtigungen der Ökosysteme (Müll, Giftstoffe, Tourismus) werden in allen Informationsmedien dargestellt, in den Ausstellungen z.T. sehr dramatisch. Es sollte keine "heile Welt" dargestellt werden; Ausstellungen sollten betroffen machen, gleichzeitig jedoch Begeisterung für die Natur wecken.
Lernen über die Natur in und mit der Natur stehen im Vordergrund der Bildungsarbeit und führten bereits zu Konzepten, diese Erfahrungen auch ohne Ranger-Begleitung sammeln zu können: Im Nationalpark Bayerischer Wald wurde 1995 ein Naturerlebnispfad fertiggestellt, der Vorgänge in Ökosystemen veranschaulicht (spielerisch) und Zusammenhänge bewußt macht (wissenschaftlich, ethisch), der als Konzept für zukünftige Umweltbildungsarbeit zu sehen ist. Geowissenschaftliche und kulturhistorische Themen sollten immer miteinbezogen werden, um den Nationalpark als Gesamtraum erfassen zu können.
Um möglichst viele Besucher zu erreichen, müssen alle erdenklichen Informationsmedien eingesetzt werden. Insgesamt ist dieses Angebot noch nicht groß genug; acht der zwölf deutschen Nationalparke wurden jedoch erst nach 1990 gegründet, sind also noch sehr jung.
Bildungsarbeit wird in deutschen Nationalparken überwiegend durch Umweltsponsoring ermöglicht und ebenfalls Wirtschaftsunternehmen rücken die Nationalparke durch Printmedien u.ä. ins öffentliche Bewußtsein. Weder eines der Bundesministerien noch ein übergeordneter Fremdenverkehrsverband informiert zu allen deutschen Nationalparken. Verkehrsverbände der Nationalpark-Gemeinden erwähnen Nationalparke als Möglichkeiten zur Erholung allenfalls als "Touristische Attraktion" oder "Weitere Angebote".
Deutsche Nationalparke werden auf der gleichen gesetzlichen Grundlage wie Naturschutzgebiete geschützt. Naturschutz ist Ländersache, die Länder übertragen die Zuständigkeit z.T. an die Nationalparkverwaltungen. Die zwölf deutschen Schutzgebiete von nationaler Bedeutung in acht verschiedenen Bundesländern weichen in ihrem Schutzzweck und in ihrer Öffentlichkeitsarbeit voneinander ab. Besonders ungünstig wirkt sich dies bei der Besucherlenkung aus, zumal eine zu geringe Anzahl Mitarbeiter in den fremdenverkehrsbelasteten Nationalparken zur Verfügung steht.
Die ersten Schritte zur einheitlichen Darstellung und einheitlichen Besucherlenkung wurden von der FÖNAD unternommen. Sie gab die Entwicklung eines Besucherleit- und Informationssystems, eines Nationalpark-Logos und ein Konzept für einheitlich gestaltete Faltblätter (Corporate Design) in Auftrag; die Ergebnisse der Aufträge sollen die deutschen Nationalparke als einheitlich zu schützende Gebiete darstellen und Besuchern die Orientierung und das umweltverträgliche Verhalten erleichtern. Das Besucherleitsystem ist bereits in vier Nationalparken installiert. Diese Konzepte sind jedoch nur Richtlinien, die für die Nationalparkverwaltungen nicht verbindlich sind.
Aus den Antworten auf einen Fragebogen über Interpretive Services in ausgewählten Ländern ließ sich ersehen, daß die Nationalparke in etwa der Hälfte der antwortenden Staaten (n=27) dezentral organisiert sind, sich aber doch jeweils eine übergeordnete Behörde um die Darstellung des nationalen Naturerbes bemüht. National Park Services sind in den meisten Fällen nur für das Corporate Design zuständig, d.h. sie geben Vorgaben an die Nationalparkverwaltungen, die Medien dann um die räumlich spezifischen Informationen ergänzen. Nur in den Vereinigten Staaten ist der National Park Service für sämtliche Informationsmedien der mehr als 350 Gebiete nationaler Bedeutung zuständig.
Band 2 enthält eine Nationalpark-Bibliographie mit 2224 Literaturstellen (Stand: 4.11.1995).
Die vorliegende Arbeit behandelt das Forschungsthema der Entstehung des flüssigen Eisenkerns im Zentrum unseres Planeten. Dieses bislang wenig verstandene Gebiet ist reich an Fragestellungen, sowohl für Experimentatoren als auch für die Geodynamik. Es gibt sehr viele Arbeiten, die den Bildungsprozess experimentell untersuchen, jedoch wurde in den letzten Jahren die numerische Untersuchung in diesem Gebiet kaum vorangetrieben. Der experimentelle Teil der Arbeit stellt sich hierbei der aktuellen Frage nach der Perkolationsschwelle
1 von Eisenschmelze in der Silikatmatrix der Protoerde, während numerisch die Effekte von Potenzgesetzkriechen, Dissipation und Schmelzsegregation beim Absinken eines Eisendiapirs nach Ausbildung eines ersten flachen Magmaozeans in der Protoerde behandelt werden. Die genauen Fragestellungen könnnen dabei im letzten Abschnitt der Einleitung gefunden werden.
Im Rahmen dieser Arbeit wird der aktuelle Stand auf dem Gebiet des Lokalen Lovász Lemmas (LLL) beschrieben und ein Überblick über die Arbeiten zu konstruktiven Beweisen und Anwendungen gegeben. Ausgehend von Jószef Becks Arbeit zu einer algorithmischen Herangehensweise, haben sich in den letzten Jahren im Umfeld von Moser und Tardos und ihren Arbeiten zu einem konstruktiven Beweis des LLL eine erneute starke Beschäftigung mit dem Thema und eine Fülle von Verbesserungen entwickelt.
In Kapitel 1 wird als Motivation eine kurze Einführung in die probabilistische Methode gegeben. Mit der First- und Second Moment Method werden zwei einfache Vorgehensweisen vorgestellt, die die Grundidee dieses Beweisprinzips klar werden lassen. Von Paul Erdős eröffnet, beschreibt es Wege, Existenzbeweise in nicht-stochastischen Teilgebieten der Mathematik mithilfe stochastischer Überlegungen zu führen. Das Lokale Lemma als eine solche Überlegung entstammt dieser Idee.
In Kapitel 2 werden verschiedene Formen des LLL vorgestellt und bewiesen, außerdem wird anhand einiger Anwendungsbeispiele die Vorgehensweise bei der Verwendung des LLL veranschaulicht.
In Kapitel 3 werden algorithmische Herangehensweisen beschrieben, die geeignet sind, von der (mithilfe des LLL gezeigten) Existenz gewisser Objekte zur tatsächlichen Konstruktion derselben zu gelangen.
In Kapitel 4 wird anhand von Beispielen aus dem reichen Schatz neuerer Veröffentlichungen gezeigt, welche Bewegung nach der Arbeit von Moser und Tardos entstanden ist. Dabei beleuchtet die Arbeit nicht nur einen anwendungsorientierten Beitrag von Haeupler, Saha und Srinivasan, sondern auch einen Beitrag Terence Taos, der die Beweistechnik Mosers aus einem anderen Blickwinkel beleuchtet.
In dieser Arbeit wurde deutlich, dass die Multilevel Monte Carlo Methode eine signifikante Verbesserung gegenüber der Monte Carlo Methode darstellt. Sie schafft es den Rechenaufwand zu verringern und in fast allen Fällen die gewollte Genauigkeit zu erreichen. Die Erweiterung durch Richardson Extrapolation brachte immer eine Verringerung des Rechenaufwands oder zumindest keine Verschlechterung, auch wenn nicht in allen Fällen die schwache Konvergenzordnung verdoppelt wurde.
Im Falle der Optionssensitivitäten ist eine Anwendung des MLMC-Algorithmus problematisch. Das Funktional, das auf den Aktienkurs angewendet wird, darf keine Unstetigkeitsstelle besitzen, bzw. im Falle des Gammas muss es stetig differenzierbar sein. Die Anwendung der MLMC Methode macht dann vor allem Sinn, wenn sich die Sensitivität als Funktion des Aktienkurses umformen lässt, so dass nur der Pfad der Aktie simuliert werden muss. Nur wenn dies nicht möglich ist, wäre es sinnvoll, die in Kapitel 6.5 am Beispiel des Deltas vorgestellte Methode zu benutzen, in der man einen zweiten Pfad für das Delta simuliert.
Weitere Verbesserungsmöglichkeiten könnten in der Wahl von anderen varianzreduzierenden Methoden liegen oder durch Verwendung von Diskretisierungsverfahren mit höherer starker Ordnung als das Euler-Verfahren (vgl. [7], Verwendung des Milstein-Verfahrens). In diesem Fall ist theoretisch ein Rechenaufwand der Größenordnung O(ϵexp-2) möglich, da die Anzahl der zu erstellenden Samples nicht mehr mit steigendem L erhöht wird. Somit könnte das L so groß gewählt werden, dass der Bias verschwindet und der MSE ausschließlich von der Varianz des Schätzers abhängt. Um diese auf eine Größenordnung von O(ϵexp2) zu bringen, ist es nötig, O(ϵexp2) Pfade zu erstellen (siehe Gleichung (3.6)), was den Rechenaufwand begründet.
In vorliegender Arbeit wurde ein lineares Sigma-Modell mit verktoriellen sowie axial-vektoriellen Freiheitsgraden durch Einkopplung des Dilatons verallgemeinert, wodurch Kontakt mit der Skalen-Anomalie erzielt wurde. Anschließend war die Intention, die Zerfallsbreiten des entmischten Sigmafeldes sowie des entmischten skalaren Glueballs, die mit den skalaren-isoskalaren Resonanzen f0(1370) und f0(1500) identi
ziert wurden, auf Baumdiagrammniveau zu berechnen und mit experimentellen Befunden zu vergleichen, um Aussagen über die Natur dieser Resonanzen im Rahmen der durchgeführten Studie machen zu können.
Im Sommer 1992 wurde an Abschnitten der Rur und ihres Nebenflusses Inde (Niederrheinische Bucht, Nordrhein-Westfalen) die Ufervegetation pflanzensoziologisch untersucht und die lokale Verbreitung von Neophyten mit Hilfe einer speziell entwickelten Methode der Feinkartierung erfaßt.
Die Ufervegetation der Rur weist nur in zwei Teilbereichen natürliche bzw. naturnahe Vegetationstypen der Flußufer in guter Ausbildung auf; hier treten flächenhaft Gesellschaften der Convolvuletalia, des Phragmition und Sparganio-Glycerion, des Bidention und des Salicion purpureae auf. Die übrigen Bereiche der Rur und ebenso die Inde sind ausgebaut und durch relativ intensiv "gepflegte", botanisch verarmte Ufer gekennzeichnet.
Insgesamt wurden knapp 60 Kilometer Uferstrecke abgegangen und dabei etwa 30 neophytische Sippen nachgewiesen; hiervon wurden 15 ausgewählte Sippen systematisch kartiert. Für etwa ein Dutzend im Untersuchungsgebiet häufigere Neophyten wurden Verbreitungskarten erstellt und diskutiert.
Parallel zur Feinkartierung von Neophyten wurden im Gelände und aus schriftlichen Quellen verschiedene Formen anthropogener Standortveränderungen erfaßt, um Hinweise auf Zusammenhänge mit der Ausbreitung der Neophyten zu erhalten.
Aus einer Sichtung der diesbezüglichen Literatur ergaben sich zwei Gruppen von Hypothesen darüber, welcher Typ von anthropogenen Einflüssen die Ausbreitung von Neophyten an Flüssen besonders begünstigt: von einigen Autoren wurden direkte mechanische Eingriffe im Uferbereich, wie Kanalisierung und Auwaldrodung, als maßgeblich betrachtet, von anderen Autoren wurde dagegen in den chemischen Belastungen des Flußwassers der Hauptfaktor vermutet. Es wurde in der vorliegenden Arbeit aber davon ausgegangen, daß die Daten, die bisher zu Aussagen über die Neophyten-Problematik an Flußufern herangezogen wurden, im wesentlichen auf zu kleinmaßstäbigen Kartierungen und auf zu spezieller Betrachtung einzelner neophytischer Arten beruhten.
Deshalb wurde in der vorliegenden Arbeit versucht, zusätzlich zur Feinkartierung einen neuen methodischen Ansatz zu entwickeln, um die Bedeutung, die Neophyten insgesamt in der Vegetation eines bestimmten Flußabschnitts haben, synthetisch zu analysieren.
Es wurde ein "Neophyten-Index" als Maß des Neophytenreichtums ermittelt; er bezieht sich immer auf einen bestimmten Flußabschnitt und ergibt sich aus der Gesamtzahl und Häufigkeit der in dem Abschnitt gefundenen neophytischen Sippen. Der Neophyten-Index als synthetischer Ausdruck floristischer Veränderungen ermöglichte einen groben Vergleich mit Daten zu anthropogenen Standortveränderungen. Die Probleme derartiger schematischer Berechnungen wurden diskutiert; alle Aussagen über die Ergebnisse mußten vorbehaltlich der Notwendigkeit kritischer Interpretation erfolgen.
Eine wichtige Rolle bei den Untersuchungen spielte die Frage des Status von Neophyten-Vorkommen; wesentlich war auch die Kenntnis der aktuellen Phase der Einwanderung eines Neophyten in das Untersuchungsgebiet. Vorkommen mit zufälligem Charakter, also unbeständige oder vorpostenartige Vorkommen, erlauben nur begrenzt ökologische Aussagen. Deshalb waren nicht alle gefundenen Neophyten gleichermaßen für die Berechnung eines Neophyten-Index verwendbar. Neben Beobachtungen im Gelände waren zur Beurteilung dieser Fragen umfangreiche Auswertungen der Literatur notwendig. Als Ergebnis wurde also zunächst sippenbezogen die Geschichte der Ausbreitung rekonstruiert, sowie die gegenwärtige Verbreitung und der Status im Untersuchungsgebiet ermittelt. Acht Neophyten wurden dann als geeignet befunden, in die Berechnung des Neophyten-Index einzugehen.
Es ergaben sich deutliche Unterschiede im Neophyten-Index verschiedener Flußabschnitte: für den unteren Bereich der Rur unterhalb der Einmündung der Inde und besonders für die Inde selbst ergaben sich deutlich höhere Neophyten-Indices als für den oberen Bereich der Rur.
Entgegen häufigen allgemeinen Angaben in der Literatur gab es im Untersuchungsgebiet keinen erkennbaren Zusammenhang zwischen dem Ausbauzustand eines Flußabschnittes und dessen Neophytenreichtum; einige naturnah mäandrierende Abschnitte der Rur waren deutlich neophytenreicher als andere, regulierte Abschnitte.
Ebensowenig war im gewählten Maßstabsbereich ein Zusammenhang zwischen der Beschattung der Ufer durch Gehölze und dem Neophytenreichtum festzustellen; der gesamte obere Bereich der Rur war trotz geringer Beschattung relativ neophytenarm.
Eine sehr auffällige Koinzidenz besteht jedoch zwischen Neophyten-Index und der Gewässergüteklasse der Teilabschnitte; die Inde ist durch vor allem industrielle Abwässer erheblich verschmutzt, während die Rur oberhalb der Einmündung der Inde nur geringere Belastungen aufzuweisen hat. Eine deutliche Abhängigkeit der Neophyten-Ausbreitung von der Gewässerbelastung wurde in der Literatur bisher zwar von einigen Autoren vermutet, jedoch nie durch exakte Kartierungen in geeigneten Untersuchungsgebieten nachgewiesen.
Die hier nachgewiesene Koinzidenz zwischen Gewässerbelastung und Neophytenreichtum muß mit Vorsicht interpretiert werden; weitere Faktoren unbekannter Bedeutung kommen hinzu. Als Einschleppungsort bzw. Ausbreitungszentrum von Neophyten könnte etwa die Industrieregion im Einzugsgebiet der Inde - oberhalb des Untersuchungsgebiets - eine Rolle spielen. Auch ein Einfluß des Abflußregimes auf die Ausbreitung von Neophyten kann nach den vorliegenden Daten nicht ausgeschlossen werden.
Abschließend werden die konkreten Standortfaktoren Wasserhaushalt und Bodensubstrat bezüglich ihrer noch weitgehend im Dunkeln liegenden Abwandlung durch anthropogene Einflüsse diskutiert.
Diese Diplomarbeit beschäftigt sich mit dem Entwurf und der Implementierung der Auslesefirmware für den GET4 Chip im Rahmen des CBM (Compressed Baryonic Matter) Experiments.
Physikalische Experimente mit Teilchenbeschleunigern, wie das geplante CBM Experiment, erzeugen große Mengen an Sensordaten, die aufbereitet, gespeichert und ausgewertet werden müssen. Der GET4 Chip ist ein möglicher TDC (Time to Digital Converter) Chip mit 4 Kanälen für den TOF (Time of Flight) Detektor des CBM Experiments. Der GET4 Chip erzeugt einen Zeitstempel für die Treffer der TOF RPC (Resistive Plate Chambers) Sensoren.
Die Auslese der GET4 Daten wird von einem ROC (Readout Controller Board) übernommen, das mit einem FPGA (Field Programmable Gate Array) ausgestattet ist. Das ROC Board lässt sich über die ROC Firmware für verschiedene Einsatzzwecke flexibel konfigurieren, so dass damit auch andere Frontend Elektronik, wie z.B. der n-XYTER Chip, ausgelesen werden kann. Während dieser Diplomarbeit wurde das SysCore2 mit einem Virtex-4 FX20 als ROC verwendet. Inzwischen ist das SysCore3 verfügbar, das einen deutlich leistungsfähigeren FPGA besitzt. Die bisher verfügbare Firmware für den GET4 war für den Betrieb im 24 Bit Modus konzipiert.
Der bevorzugte Auslesemodus für den GET4 ist der 32 Bit Modus, da der 24 Bit Modus einige Beschränkungen aufweist und die volle Funktionalität des GET4s nur im 32 Bit Modus zur Verfügung steht. Im Rahmen dieser Diplomarbeit wurde die vorhandene 24 Bit Firmware für den 32 Bit Modus erweitert, so dass der zweite Datenkanal des GET4s, sowie der DDR (Double Data Rate) Modus für die Datenübertragung zur Verfügung steht. Neben der Erhöhung der Datenübertragungsraten stand die mögliche Skalierbarkeit der Firmware für die Auslese möglichst vieler GET4 Chips im Fokus. Dazu musste die Firmware umgestaltet werden, um die begrenzten BRAM Ressourcen des FPGAs nicht unnötig zu belegen.
Eine weitere wichtige Neuerung der 32 Bit Firmware ist die automatische Synchronisation der Epochen zwischen ROC und GET4. Dazu werden die Epochennachrichten der GET4s mit der Epoche des ROCs verglichen und bei Bedarf Synchronisationsnachrichten mit der korrekten Epoche an die GET4s gesendet.
Der Theorieteil befaßt sich mit den bisher vorliegenden Erkenntnissen über Lerntypen. Anregungen zu dieser Untersuchung kamen von den Neurophysiologen ECCELS J.C. und POSNER M.I.,von den Pädagogischen Psychologen WEIDENMANN B und GAAL J., von dem Pädagogen VESTER F. und dem Psychologen PAIVIO A., auf dessen Thesen von den drei Kodierungssystemen (1964) die Forschungsansätze zu diesem Thema beruhen. Darüber hinaus wurde der kommerzielle Hirndominanztest von HERMANN N. und einige Arbeiten von Vertretern des Neurolinguistischen Progammierens berücksichtigt.
Untersucht wurde die Auswirkungen der visuellen, auditiven und kinästhetischen Unterrichtsformen auf zwölf Jugendliche im Alter zwischen acht und zwölf Jahren. Im Anschluß an die Untersuchung wurde den Kindern ein Fragebogen vorgelegt, mit dessen Hilfe die präferierten Sinneskanäle erfaßt werden sollten. Dies schließt insofern eine Forschungslücke, als hier zum erstenmal die Modalitäten von Probanden festgestellt wurden. Dies befähigt zur Beantwortung der Frage: Wie unterrichte ich wen?
Die Kinder hatten am Jugendtraining des Licher Golfclubs teilgenommen und standen in den letzten drei Wochen der Saison 1996 für den Test zur Verfügung. Der Lernerfolg wurde ausschließlich durch einen Vergleich der Leistung vor und nach dem Unterricht ermittelt. Hierbei wurde beobachtet, daß jedes Kind eine bestimmte Reihenfolge von Lernmodalitäten bevorzugt. Ein für diese Situation entwickelter Fragebogen stimmte in 7 von 12 Fällen mit den Testergebnissen überein. Die Lernleistung kann bei Ansprache der präferierten Sinnesmodalitäten optimiert werden.
Die Ergebnisse haben gezeigt, daß Zusammenhänge zwischen der Instruktion präferierter Sinnesmodalitäten und der Lernleistung bestehen.
Der letzte Teil der Arbeit befaßt sich mit der praktischen Umsetzbarkeit der Ergebnisse und ihren möglichen Auswirkungen auf die Kommunikation.
Diese Arbeit befasst sich mit der Analyse der ersten Proton-Proton-Kollisionen, die mit dem ALICE-Experiment am LHC gemessen wurden. Der Schwerpunkt der Arbeit liegt dabei auf der Analyse des mittleren Transversalimpulses, einer Messgröße, mit der sich die Transversalimpulsspektren geladener, nichtidentifizierter Teilchen charakterisieren lassen. ALICE misst bei sqrt(s) = 900 GeV einen mittleren Transversalimpuls von
<pT> iINEL = 0;483 +/- 0;001(stat.) +/- 0;007(sys.) GeV=c (6.1)
<pT >NSD = 0;489 +/- 0;001(stat.) +/- 0;007(sys.) GeV=c (6.2)
Im Vergleich mit den Messungen anderer Experimente bei gleichem p s misst ALICE einen etwas höheren mittleren Transversalimpuls.
Neben der Analyse des mittleren Transversalimpulses des inklusiven Spektrums wird auch die Analyse als Funktion der Multiplizität erläutert. Mit der skalierten Multiplizität z = nacc= hnacci können die mit ALICE gemessenen Werte mit den Messungen von UA1 verglichen werden. Für z > 1 stimmen die Daten innerhalb der Fehler überein, für z < 1 divergieren die Daten von ALICE und UA1. Im weiteren Verlauf werden zwei Methoden vorgestellt, mit denen ein Übergang von der gemessenen Multiplizität zu einer korrigierten Multiplizität vorgenommen werden kann. Beide Methoden basieren auf einer mit PYTHIA generierten Korrelationsmatrix, die den Zusammenhang zwischen der generierten Multiplizitätsverteilung und der rekonstruierten Multiplizitätsverteilung enthält. Bei der einen Methode (A) werden die gemessenen Daten mit der Korrelationsmatrix gewichtet auf die generierte Multiplizität übertragen. Für die andere Methode (B) wird die Matrix zunächst entfaltet, um dann mit der entfalteten Multiplizitätsverteilung eine neue Matrix zu generieren. Mit dieser neuen Matrix wird dann jeder gemessen Multiplizitätsklasse eine wahrscheinlichste wahre Multiplizität zugewiesen. Die Ergebnisse beider Methoden sind vergleichbar. Für die weitere Analyse wird jedoch Methode A verwendet, da die Zuordnung in Methode B nicht eindeutig ist. Die mit dieser Methode analysierten Daten werden dann mit verschiedenen Simulationspaketen verglichen. Dabei stellt sich heraus, dass der PYTHIA-Tune Perugia0 die Daten am besten, jedoch nicht exakt, beschreibt. Mit den gemessenen Daten lassen sich die Modelle weiter optimieren, um eine Vorhersage bei höheren Strahlenergien machen zu können...
Gegenstand dieser Arbeit ist die Entwicklung eines CH-Rebunchers mit Energievariation für die sich in der Entstehungsphase befindliche Beschleunigeranlage des FRANZ Projektes am Institut für Angewandte Physik der Goethe Universität Frankfurt am Main.
Die FRANZ Experimente sollen Fragen der nuklearen Astrophysik und der Materialforschung beantworten. Experimente zu Neutroneneinfangsquerschnitten werden im Vordergrund stehen. Diese sollen hauptsächlich zum Verständnis der Vorgänge bei der Nukleosynthese in Roten Riesen beitragen...
Im Rahmen der vorliegenden Diplomarbeit wurde die Rolle der putativen mitochondrialen Kinase PINK1 untersucht. Die Mutationen in diesem Gen sind für die PARK6 Form von Morbus Parkinson ursächlich. Dies ist eine neurodegenerative Erkrankung, welche die Lebensqualität der Betroffenen weitgehend beeinträchtigt. Sie wird mit Dopamin-Ersatzmitteln und DBS (Deep Brain Stimulation) behandelt, beide nicht frei von Nebenwirkungen. Levodopa können bekannterweise zu schweren Fällen von Dyskinesie führen. Die Aufklärung der physiologischen Rolle von PINK1 würde den Wissenschaftlern auf dem Weg zur Früherkennung und anderen Therapiemöglichkeiten verhelfen. Die PARK6 Form der Parkinson Erkrankung wird derzeit anhand von verschiedenen Modellorganismen (M. musculus, D. melanogaster, D. rerio, C. elegans), sowie von verschiedenen Zellmodellen (HeLa, PC12, Fibroblasten aus PARK6 Patienten) untersucht. Als neuronale Zelllinie eignen sich die SH-SY5Y Zellen besonders gut für die Forschung an der durch den Verlust von dopaminergen Neuronen gekennzeichneten Parkinson-Erkrankung und sind diesbezüglich als ein relevantes Zellmodell breit akzeptiert (Xie et al.2010). In der vorliegenden Diplomarbeit wurden mit einem adenoviralen Konstrukt generierte PINK1 knockdown SH-SY5Y Zellen (M. Klinkenberg) als ein potentielles Zellmodell für die PARK6 Form von M. Parkinson analysiert. Als Kontrolle für die PINK1- abhängigen Effekte wurden NT (non target) Zellen herangezogen. Ausschlaggebend für die Wahl dieses Zellmodells war die Beobachtung, dass die PINK1 KD SH-SY5Y Zellen bei einer Reduktion des Serumgehaltes im Medium wesentlich langsamer wachsen als die NT Zellen (M. Jendrach). Die Serumdeprivation schien also der notwendige Stressfaktor zu sein, welcher zur Auslösung eines PINK1-abhängigen Phänotyps führen könnte. Daraus ergab sich die Frage, welche anderen PINK1-abhängigen Veränderungen unter Serumentzug zur Ausprägung kommen. Im Rahmen dieser Diplomarbeit wurde zunächst die relative Genexpression der PINK1 KD SH-SY5Y Zellen in Bezug auf die NT Zellen untersucht. Es zeigte sich, dass der PINK1 KD bei reduziertem Serumgehalt zur Herunterregulation weiterer Parkinsonrelevanter Gene führt, deren Produkte an verschiedenen zellulären Prozessen beteiligt sind. Die Effekte traten nur bei stabil transfizierten Zellen auf und waren durch einen transienten PINK1 KD nicht reproduzierbar. Viele dieser Gene sind für die Aufrechterhaltung der mitochondrialen Homöostase bedeutsam und deshalb wurde die mitochondriale Funktion und Erscheinung in den PINK1 KD SH-SY5Y Zellen genauer erforscht. Im Gegensatz zu früheren Befunden (Mai et al. 2010) wurde eine Herunterregulation des für die mitochondriale Teilung zuständigen Fis1-Proteins ermittelt, darüber hinaus aber keine Änderung der mitochondrialen Morphologie auch nach induziertem Zellstress beobachtet (Dagda et al. 2009, Lutz et al. 2009). Ein Defizit in der mitochondrialen Atmung wurde festgestellt, nachdem die Zellen bei 1g/L Glucose kultiviert und für 24h auf ein Galaktose-haltiges Medium transferiert wurden. Außerdem wurde ähnlich zu Amo et. 2010 al eine leicht verminderte Energieladung der betreffenden Zellen gefunden. Keine Beeinträchtigung der mtDNA-Integrität oder der Überlebensrate bei H2O2-induziertem oxidativen Stress wurde beobachtet. Weiterhin wurde untersucht, inwiefern die in den PINK1 KD SH-SY5Y Zellen beobachteten Veränderungen in der Genexpression auf weitere Zellmodelle (PINK1 KD HeLa, kortikale Neurone aus PINK1 KO und PINK1 KO / A53T alpha Synuclein überexprimierenden Mäusen) übertragbar sind. Dabei wurden einige Gemeinsamkeiten zwischen den PINK1 KD SH-SY5Y Zellen und den PINK1 KO /A53T α Synuclein überexprimierenden kortikalen Neuronen ermittelt. Angesichts des Verlustes von dopaminergen Neuronen in M. Parkinson wäre es bedeutsam nachzuvollziehen, ob und wie die verminderte Expression Parkinson-relevanter Gene in diesen PINK1 KD Zellmodellen kompensiert wird, so dass die Zellen trotz der genetischen Einschränkung bei idealisierten in vitro Bedingungen gut überleben können. Hier ist es vorstellbar, dass zusätzlicher Zellstress die Gemeinsamkeiten zwischen den PINK1 KD SH-SY5Y Zellen und den PINK1 KO / A53T SNCA überexprimierenden Neuronen erweitern könnte. Diesbezüglich wäre es auch relevant zu erforschen, unter welchen Umständen die potentiellen Kompensationsmechanismen versagen, so dass das Zellüberleben nicht mehr gewährleistet wird. Im Licht des altersbedingten Ausbruchs der Symptome bei M. Parkinson würden diese neuen Erkenntnisse dazu beitragen, die möglichen auslösenden Faktoren zu erfassen und so ein tieferes Verständnis der molekularen Mechanismen dieser schwerwiegenden Erkrankung zu erhalten.
Pion-Pion-Streuung in einem geeichten linearen Sigma-Modell mit chiraler U(2)R × U(2)L-Symmetrie
(2006)
Das Thema der vorliegenden Arbeit waren die leichten skalaren und vektoriellen Mesonen, die in einem chiral symmetrischen SU(2)-Modell zusammengefasst wurden; aufgrund der sich daraus ergebenden Lagrange-Dichte wurde die Streuamplitude für die Pion-Pion-Streuung im Vakuum berechnet, was sodann die Berechnung der s-Wellen-Streulängen an der Schwelle im Vakuum erlaubte.
Die Relevanz der Zuschreibung von "Hochbegabung" in der Biografie von besonders begabten Erwachsenen
(2007)
Mit dieser Arbeit konnten erstmalig Erkenntnisse über "hochbegabte" Erwachsene gewonnen werden, die bisher entweder nicht untersucht wurden oder aber hinter dem Schleier der Mystifizierung im Verborgenen blieben. Eine der wichtigsten Erkenntnis dieser Arbeit ist entgegen der Darstellung vieler Publikationen zu diesem Thema, dass die Zuschreibung von "Hochbegabung" nicht grundsätzlich biografisch relevant ist. Vielmehr ist die Relevanzeinstufung von "Hochbegabung" von entsprechenden Dispositionen und Ausprägungen mit ihren spezifischen Wirkungsmechanismen im Lebensablauf abhängig, die je nach Zusammenspiel in eine non-exklusive oder in eine exklusive "Hochbegabtenidentität" münden. Eine Normalitätserfahrung – und das ist die weitere wichtige Erkenntnis dieser Untersuchung – ist für eine non-exklusive "Hochbegabtenidentität" die notwendige Voraussetzung. Erst dadurch relativiert sich die durch die Zuschreibung bedingte Abgrenzung von Anderen. In diesem Zusammenhang erstaunt es nicht, dass ein kooperatives und annehmendes Umfeld gute Voraussetzungen für einen positiven Umgang mit der Begabung und somit auch für die Gelegenheit der Normalitätserfahrung gute Voraussetzungen liefert. Zu der vieldiskutierten Frage, ob eine vermutete "Hochbegabung" formal getestet und schließlich zertifiziert werden soll, kann somit auf Grundlage der Analyse nach der Marnier des Biografieforschers mit einem "je nach Lebenslage" Stellung genommen werden: Fühlt sich die betreffende Person mit der gegebenen Situation wohl und hat keine gravierenden, die weitere Identitätsentwicklung behindernde Schwierigkeiten und erfährt sich die besonders begabte Person als normal, so ist kritisch nach dem Nutzen einer Zuschreibung von "Hochbegabung" zu fragen. Nimmt sich die Person jedoch als ständiger Außenseiter wahr und resultieren daraus aufgrund des geringen Selbstwertes maßgebliche Schwierigkeiten in alltäglichen Situationen, so könnten die mit einer formalen Zuschreibung verbundenen Zutrittsmöglichkeiten zu entsprechenden Fördermaßnahmen durchaus eine Möglichkeit sein, Personen mit ähnlichen Erfahrungen kennenzulernen. Um diese Frage jedoch zufriedenstellend beantworten zu können, sind weitere, auf diese Frage zentrierte Untersuchungen notwendig. Ebenso sind ergänzend weitere Untersuchungen zur Identitätskonstruktion von per Zuschreibung ‚Hochbegabten’ unerlässlich, da die Methode des autobiografisch-narrativen Interviews hierbei an ihre Grenzen stößt (vgl. voriges Kapitel 8.6). Um das Moment der Etablierung einer Denkstruktur der "binären Schematisierung" und ihre Wirksamkeit zu erforschen, bedarf es unter anderem neurowissenschaftlichen Wissens, welches in dieser Arbeit nicht berücksichtigt werden konnte. Dennoch konnte anhand der Interviewtechnik des autobiografisch-narrativen Interviews erst die persönliche Relevanz der Zuschreibung von ‚Hochbegabung’ in den Biografien herausgearbeitet werden.
In der Realität setzen sich Farben aus einzelnen Wellen zusammen, welche in Kombination mit zugehörigen Wellenlängen und Intensitäten bei Menschen den Sinneseindruck einer Farbe hervorrufen. Die Computergraphik definert Farben mit dem RGB-Modell, in dem durch 3 Grundfarben (Rot, Grün, Blau) der darstellbare Farbbereich festgelegt wird. Ein Spektrum (genauer Spectral Power Distribution, SPD) ermöglicht eine variablere, physikalisch exaktere Darstellung von Farbe, kann aber nicht einfach mit dem RGB-Modell verwendet werden. Das von der Commission Internationale de l'Eclairage definierte XYZ-Farbmodell erlaubt es mit Wellenlängen zu rechnen, und bildet die Grundlage der Beleuchtungsrechnung mit Spektren.
Farben mittels Spektren zu ermitteln ist die Paradedisziplin von Raytracern, da der Berechnungsaufwand für Echtzeitanwendungen meist zu groß ist. Die neueste Graphikkarten-Generation kann große Datenmengen effizient parallel verarbeiten, und es wurden entsprechende Ansätze gesucht, wellenlängenbasiert zu rechnen. Das hier vorgestellte System erlaubt auf Grundlage von physikalischen Formeln einzelne Intensitäten zu beeinflusen, welche in Kombination mit den Tristimulus-Werten des Menschen in dem XYZ-Farbmodell abgebildet werden können. Diese XYZ-Koordinaten können anschließend in das RGBModell transformiert werden.
Im Gegensatz zu bestehenden Systemen wird direkt mit Spektren gearbeitet und diese nicht von einer RGB-Farbe abgeleitet, so dass für bestimmte Effekte eine höhere Genauigkeit entsteht. Durch die Verwendung einer SPD ist es möglich, Interferenzeffekte an dünnen Schichten und CDs in einem Polygon-Renderer zu visualisieren. In dieser Arbeit wird eine Berechnung von mehrlagigen dünnen Schichten mit komplexen Brechungsindizes präsentiert und ein LOD-System vorgestellt, welches es ermöglicht den Berechnungsaufwand frei zu skalieren.
Die HBT-Interferometrie bietet über die Analyse von Bose-Einstein-Korrelationen geladener Pionen die Möglichkeit, Raumzeit-Dimensionen von Kern-Kern-Reaktionen zu vermessen. Dadurch kann das Ausfrierverhalten der in diesen Reaktionen enstehenden teilchenemittierenden Quelle untersucht werden. Die so gewonnenen Informationen tragen zu einem Verständnis der in den Kollisionen ablaufenden Prozesse und somit zu Erkenntnissen über Kernmaterie unter extremen Bedingungen bei. Von besonderem Interesse ist dabei die Beobachtung der Ausbildung eines QGP-Zustandes. Hierfür sind systematische Studien von verschiedenen Kollisionssystemen und -energien von großer Bedeutung.
Im Rahmen dieser Arbeit wurde eine Analyse von Bose-Einstein-Korrelationen in Pb-Au-Kollisionen bei einer Strahlenergie von 80A GeV durchgeführt. Die hier analysierten Daten wurden mit dem CERES-Detektor am SPS-Beschleuniger des CERN aufgenommen. Diese Analyse stellt eine erneute Untersuchung des Datensatzes unter Verwendung einer verbesserten Kalibrierungsprozedur für den CERES-Detektor dar. Infolgedessen konnte eine Verringerung der systematischen Unsicherheiten erreicht werden. Die neuen Ergebnisse stimmen mit den von der CERES-Kollaboration bereits publizierten HBT-Ergebnissen zufriedenstellend überein. Der Vergleich mit den Ergebnissen des NA49-Experiments, dass Pb-Pb-Kollisionen bei gleicher Strahlenergie unter dem Aspekt der HBT-Interferometrie untersucht hat, zeigt ebenfalls eine Übereinstimmung.
Durch diese Konsistenz und die Minimierung der systematischen Unsicherheiten im Bereich der SPS-Energien wird nun die Interpretation des Ausfrierverhaltens der Quelle besser ermöglicht: In dieser Arbeit wurde eine universelle Ausfrierbedingung von Pionen bei unterschiedlichen Schwerpunktsenergien und für verschiedene Kollisionssysteme untersucht. Diesbezügliche Observablen sind das mittels HBT-Radien bestimmte Ausfriervolumen und die mittlere freie Weglänge von Pionen zum Zeitpunkt des Ausfrierens der Quelle.
Bei dieser Untersuchung in Abhängigkeit von der Schwerpunktsenergie der Kollision zeichnet sich ein Minimum des Ausfriervolumens bei hohen AGS- und niedrigen SPS-Energien ab. Zusätzlich ergibt sich für die mittlere freie Weglänge ein ebenfalls nicht monotones Verhalten in diesem Energiebereich. Aus der dort vergrößerten Weglänge lässt sich auf eine erhöhte Emissiondauer der teilchenemittierenden Quelle gegenüber anderen Energien schließen. Die Emissionsdauer spielt in Verbindung mit dem Nachweis eines QGP-Zustandes eine wichtige Rolle. Ob die beschriebenen Beobachtungen durch ein Ausbilden dieses Zustandes oder auf Grund von anderen unbekannten Mechanismen hervorgerufen werden, kann abschließend noch nicht beurteilt werden. Denn verbleibende systematischen Unsicherheiten bei niedrigen Schwerpunktsenergien lassen derzeit keine weiteren Interpretationen zu. Insbesondere betrifft dies die noch bestehende Diskrepanz der Ergebnisse zwischen CERES und NA49 für eine Strahlenergie von 40A GeV. Daher ist eine Reanalyse der Daten von CERES bei dieser Strahlenergie von Bedeutung. Ebenso würde eine erneute systematische Messung im AGS-Energiebereich weitere grundlegende Interpretationen ermöglichen.
In Zukunft werden am RHIC-Beschleuniger des BNL in den USA und im Rahmen des FAIR-Projektes an der GSI bei Darmstadt Experimente in dieser Energieregion durchgeführt werden. Möglicherweise kann dann anhand dieser Messung ein universelles Ausfrierkriterium für Pionen sowie der Grund für ein verändertes Systemverhalten bei bestimmten Energien festgestellt werden.
Die Arbeit analysiert den Begriff sowie den Wert der Freiheit in den Schriften des kanadischen Philosophen Charles Taylor, unter Bezugnahme auf dessen politische Philosophie und philosophische Anthropologie. Die begriffliche Klärung basiert auf einer Systematisierung der positiven Verwendung des Freiheitsbegriffes in Taylors Gesamtwerk. Die Wertanalyse interpretiert die Ergebnisse der Systematisierung in Bezug auf die Frage, ob Freiheit in Taylors Verständnis ein extrinsischer oder ein intrinsischer Wert ist.
In vorliegender Arbeit wurde ein Modell zur Beschreibung des chiralen Phasen Übergangs eines mesonischen Mediums im Gleichgewicht als effektiver Manifestation des Übergangs von hadronischer Materie zum Quark-Gluon-Plasma präsentiert, und im Rahmen eines selbstkonsistenten Vielteilchenresummationsverfahrens in Doppelblasennäherung numerisch gelöst.
Das HADES-Experiment (High Acceptance DiElectron Spectrometer) am SIS der GSI wurde zur Messung der e+e−-Paare dileptonischer Zerfälle der leichten Vektormesonen im Energiebereich von 1 − 2 AGeV entwickelt. Eine der Hauptanforderungen an das Spurverfolgungssystem des Spektrometers ist eine Ortsauflösung von 100 μm, die benötigt wird, um die geforderte Massenauflösung von 1 % im Bereich der !-Masse zu erzielen. Das Spurverfolgungssystem besteht aus vier Ebenen mit Vieldrahtdriftkammern (Multi-wire Drift Chambers (MDCs)) niedriger Massenbelegung (low-mass), die aus je 6 Auslesedrahtebenen bestehen. Die primäre Messgröße von Driftkammern ist die Driftzeit der entlang einer Teilchenspur generierten Elektronen der Primärionisation zum Auslesedraht. Um die gemessene Driftzeit in eine Ortskoordinate umrechnen zu können, ist eine genaue Kenntnis der Ort-Zeit-Korrelation der Driftzellen und eine präzise Kalibrierung der gemessenen Zeiten nötig. Im Rahmen dieser Arbeit wurde eine neue Methode zur Bestimmung der Kalibrierungsparameter der Driftzeiten mittels der Einkoppelung eines externen elektrischen Pulses auf die Drahtebenen der Driftkammern entwickelt und mit der herkömmlichen Methode der Kalibrierung verglichen. Zur Kalibrierung wurden elektrische Pulse durch die Hochspannungsverteilung der Driftkammern auf die Potentialdrahtebenen geleitet und somit Signale auf die Signaldrähte induziert. Die Ausbreitungsgeschwindigkeit der Signale auf den Drähten, die zur Berücksichtigung der Laufzeiten benötigt wird, wurde experimentell bestimmt. Die Genauigkeit der Methode zur Bestimmung der Kalibrierungsparameter übertrifft die Auflösung der Driftzeitmessung der Driftkammern. Die Kalibrierung der Driftzeiten benötigt nur wenig Rechen- und Zeitaufwand und stellt die Kalibrierungsparameter in gleich hoher Präzision für alle Driftzellen zur Verfügung. Die Qualität der Kalibrierung wird im Gegensatz zur herkömmlichen Methode prinzipbedingt nicht durch Fluktuationen der Startzeit des jeweiligen Stoßereignisses und die Flugzeit der dabei emittierten Teilchen zu den Driftzellen, sowie des elektronischen Rauschens beeinflusst. Die Qualität der Kalibrierung konnte gegenüber der herkömmlichen Methode signifikant verbessert werden. Die Auswirkung der Kalibrierungsparameter auf die Spurrekonstruktion wurde untersucht und für die beiden Kalibrierungsmethoden verglichen. Die Ergebnisse lassen keinen eindeutigen Schluss auf die Auswirkung der Fehler in der Kalibrierung auf die Qualität der Spurrekonstruktion zu, da die Ergebnisse der Spurrekonstruktion von anderen Effekten dominiert werden.
Zentralitätsabhängigkeit der Produktion von Protonen und Antiprotonen in Pb+Pb Stößen bei 158A GeV
(2008)
In der Diskussion zwischen verschiedenen Spielarten der Diskursanalyse und den Gouvernementalitätsstudien haben Vertreter beider Seiten das Dispositiv als vermittelnden Begriff vorgeschlagen. In diesem Zusammenhang wird die Frage »Was ist ein Dispositiv?« neu gestellt. Durch eine Relektüre von Foucaults Texten wird ein Debattenbeitrag zum Dispositivkonzept entworfen, welcher der Verwässerung einerseits und andererseits einer methodischen Schließung durch Operationalisierung des Dispositivkonzepts entgehen soll. Als Destillat dieser Rekonstruktion werden sechs Kernelemente für eine dispositivanalytische Forschungsperspektive vorgeschlagen. Der anschließende Teil bringt Foucaults Analysen mit Bruno Latours Akteur-Netzwerk-Theorie (ANT) ins Gespräch, um potentielle Leerstellen in der Dispositivanalyse zu schließen. Diese betreffen vor allem die Bereiche »Natur«, »Technik« und »Medien«. Neben Latours Akteur-Netzwerk-Theorie wird im letzten Teil Karen Barads Agentieller Realismus für die Dispositivanalyse produktiv gemacht und in das Konzept eingearbeitet.
Im Rahmen dieser Arbeit wurden Zellulare Neuronale Netzwerke (CNN) zur nichtlinearen Signalanalyse bei der Prädiktion hirnelektrischer Signale bei Epilepsie herangezogen. Die invasiven Aufnahmen hirnelektrischer Aktivität liegen zeitlich diskretisiert vor, sodaß ein zeitdiskretes Netzwerk (DTCNN) eingesetzt werden konnte. Die parallele Struktur von CNN konnte zur simultanen Untersuchung von sechs Elektroden genutzt werden, mit denen die hirnelektrische Aktivität aufgenommen wurde. Insbesondere ist die direkte Wechselwirkung der einzelnen Zellen untereinander durch eine lokale Nachbarschaft gegeben. In den durchgeführten Untersuchungen wurde zunächst festgestellt, daß für ein DTCNN, das ausgehend vom aktuellen Zeitpunkt den Signalwert des nächsten Zeitpunktes prädizieren soll, eine Prädiktionsordnung größer als zwei keine wesentliche Minimierung des Prädiktionsfehlers nach sich zieht. Daher wurde ein DTCNN mit zeitlich verzögerten Zellzuständen eingesetzt, wobei die Definitionsweise von Roska und Chua [21] im Rahmen dieser Arbeit für beliebige Prädiktionsordnungen erweitert wurde. Da bei einer Prädiktionsschrittweite größer als eins eine deutliche Erhöhung des Prädiktionsfehlers festgestellt werden konnte, wurde diese im folgenden gleich eins gewählt. Weiterhin wurde festgestellt, daß bei Verwendung polynomialer Kopplungsfunktionen der Grad der Nichtlinearität gleich drei gewählt werden kann, da eine weitere Erhöhung des Grades der Nichtlinearität zu keineren weiteren Minimierung des Prädiktionsfehlers geführt hat. Im Rahmen dieser Arbeit wurde ein Programm entwickelt, das aus den Aufnahmen der hirnelektrischen Aktivität einzelne Elektroden extrahieren kann, sodaß die Meßwerte dem DTCNN präsentiert werden konnten. Mit Hilfe des zugrundegelegten DTCNN konnte der zeitliche Verlauf der hirnelektrischen Aktivität von sechs Elektroden simultan prädiziert werden. Eine Analyse des zeitlichen Verlaufes des Prädiktionsfehlers ließ vor einem epileptischen Anfall keine signifikanten Änderungen erkennen. Daher wurde ein Programm entwickelt, mit dessen Hilfe der zeitliche Verlauf der Parameter des verwendeten DTCNN analysiert und deutliche Änderungen aufgezeigt werden können. Es konnten Berechnungsmethoden, hier die lokale Mittelwertbildung und die Gradientenberechnung, gefunden und an den jeweils untersuchten Patienten angepaßt werden, sodaß diese Änderungen der Parameter deutlicher hervorgehoben wurden. Bei zwei der vier Patienten konnten signifikante Änderungen des zeitlichen Verlaufes der Parameter des untersuchten DTCNN festgestellt werden, die vor dem Auftreten des epileptischen Anfalls liegen und somit als Vorläufer eines epileptischen Anfalls betrachtet werden können. Die Untersuchung eines dritten Patienten zeigte deutliche Änderungen der analysierten Parameter, die zeitlich mit dem Beginn des epileptischen Anfalls übereinstimmen. Bei einem vierten Patienten konnten signifikante Änderungen des zeitlichen Verlaufes der Parameter vor dem epileptischen Anfall nur dann festgestellt werden, wenn der betrachtete Datensatz hirnelektrischer Aktivität während des Auftretens eines Anfalls aufgenommen wurde. Wurde stattdessen die Aufnahme von zwei epileptischen Anfällen, die kurz hintereinander auftraten, analysiert, so konnten keine signifikanten Änderungen des Verlaufes der Parameter gefunden werden.