Universitätspublikationen
Refine
Year of publication
Document Type
- diplomthesis (32) (remove)
Language
- German (32) (remove)
Has Fulltext
- yes (32)
Is part of the Bibliography
- no (32)
Keywords
- Algorithmus (1)
- Arbeitsmarktpolitik (1)
- Benachteiligtenförderung (1)
- Bibliographie (1)
- Care & Migration (1)
- Coaching (1)
- Flussufer (1)
- Freiheit (1)
- Globalisierung (1)
- Interpretation (1)
Institute
- Physik (16)
- Erziehungswissenschaften (3)
- Gesellschaftswissenschaften (3)
- Mathematik (3)
- Informatik (2)
- Biowissenschaften (1)
- Geographie (1)
- Geowissenschaften (1)
- Sportwissenschaften (1)
- Universitätsbibliothek (1)
In dieser Arbeit wurde die Zentralitätsabhängigkeit der K0S -Produktion in Pb+Pb Stößen für 40A und 158A GeV untersucht. Sie wurden über den Zerfallskanal K0S → π+π− der schwachen Wechselwirkung nachgewiesen und bilden zusammen mit den geladenen Kaonen den Großteil der entstehenden Strangeness einer Kollision. Die Bestimmung der Zentralität erfolgte anhand der im Veto-Kalorimeter detektierten Spektatoren. Die Messergebnisse unterliegen aufgrund der limitierten geometrischen Akzeptanz des Detektors, Effizienzverlusten in der V 0-Rekonstruktion und gewählter Qualitätskriterien einigen Verlusten. Auf diese Verluste konnte mit Hilfe eines Simulationsverfahren, dem so genannten Embedding, korrigiert werden. Dabei wurden Korrekturfaktoren für differentielle Phasenraumbereiche ermittelt und auf die gemessenen Signalinhalte der invarianten Massenspektren angewendet. Des Weiteren wurde eine Vielzahl von Studien durchgeführt um die Stabilität der Ergebnisse im Rahmen eines systematischen Fehler zu bestimmen.
Die korrigierten Transversalimpuls-Spektren und Spektren der invarianten Massen verschiedener Phasenraumbereiche und Zentralitäten wurden präsentiert. Darüber hinaus wurden der inverse Steigungsparameter, die Rapiditätsspektren, sowie die berechneten Gesamtmultiplizitäten der K0S in Abhängigkeit der Zentralität und anhand der "wounded" Nukleonen diskutiert. Die Ergebnisse konnten mit vorangegangenen Analysen von NA49, NA57 und CERES verglichen werden. Dabei wurden insbesondere geringe Unstimmigkeiten mit den NA49-Ergebnissen der geladenen Kaonen bei 158A GeV festgestellt. Des Weiteren wurde die Diskrepanz zu den NA57-Ergebnissen, welche aus Analysen anderer Teilchensorten bekannt ist, für mittlere Rapiditäten bestätigt. Die Zentralitäatsabhängigkeit der Ergebnisse wurde zusätzlich mit UrQMD-Modellrechnungen geladener Kaonen verglichen und kann durch diese näherungsweise beschrieben werden.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung und dem Aufbau eines IHBeschleunigers zur Beschleunigung schwerer Ionen am Brookhaven National Laboratory.
Es wurde eine Einführung in die Arbeit und die Experimente des BNL gegeben, um zu verstehen, welche Aufgabe die IH in Zukunft haben wird und wie diese das BNL in den experimentellen Möglichkeiten erweitert.
Eingebettet in den historischen Kontext wurde zu Beginn die Familie der H-Moden Beschleuniger und ganz besonders die IH erläutert. Wichtige Begriffe und charakteristische Größen, die zum Verständnis der vorliegenden Arbeit nötig sind, wurden eingeführt und deren anschauliche Bedeutung bei der Entwicklung von Beschleunigern klar gemacht.
Eine Neuerung bei der Entwicklung von Driftröhrenbeschleunigern stellt der aufgebaute Messstand und die Computergestützte Datenanalyse dar. Es konnte gezeigt werden, dass die vorgestellte Methodik zur Verarbeitung der Messdaten enorme Verbesserungen mit sich bringt. Daten von unterschiedlichsten Beschleunigern könnern schneller als zuvor analysiert und direkt mit den Sollwerten der Strahldynamik verglichen werden. So kann bereits vor Ort eine mit nur geringen Fehlern behaftete Auswertung erstellt werden und direkt in die weitere Arbeit an einem Beschleuniger mit einfließen.
Die neue Technik wurde im weiteren Verlauf der Arbeit genutzt, um die im Detail eingeführte BNL IH Struktur aufzubauen und für den Einsatz in den USA fertig zu stellen. Neben den exakt auszuführenden Aufbau- und Justierarbeiten wurde viel Zeit in die Erstellung eines ausgereiften Tuningkonzepts investiert. Während dieser Arbeiten wurden die zwar theoretisch bekannten, am Institut aber noch nie nachgewiesenen, parasitären Tunerresonanzen beobachtet. Der zerstörerische Effekt einer solchen Resonanz konnte erstmals gemessen und analysiert werden.
Trotz der üblichen kleineren Schwierigkeiten, die komplexe Projekte mit sich bringen wurde die IH Struktur noch vor Beendigung dieser Arbeit in den USA am BNL aufgestellt und getestet. Es wurde noch nicht die volle Leistung erreicht, aber der Konditionierungsprozess ist in vollem Gange und die vorläufigen Ergebnisse zeigen keine Probleme auf, so dass davon auszugehen ist, dass die IH noch dieses Jahr voll eingesetzt werden kann.
Abschließend kann man sagen, dass das Projekt erfolgreich realisiert wurde und das die Neuerungen aus dieser Arbeit Einzug in weitere Projekte finden werden.
Transnationale Verlagerung von Care-Arbeit in Hinblick auf Ausbeutungs- und Emanzipationsaspekte
(2010)
Nationalparke haben nicht nur den Zweck, Ökosysteme auf einer ausreichend großen Fläche sich selbst zu überlassen, damit sich ein ökologisches Gleichgewicht einstellen kann, sondern sie sind auch öffentlich zugänglich.
Umweltbildung in Nationalparken bezweckt, Kenntnisse über und Begeisterung für die Nationalparke zu vermitteln, so daß der Wert dieses Raumes erfaßt und Interesse an dessen Schutz geweckt wird. Ein Beitrag zur allgemeinen Umweltbildung wird geleistet, wenn der Besucher seine Erfahrungen im Nationalpark auf alle Lebensbereiche übertragen kann. Da nur die wenigsten Besucher personengebundene Umweltbildungsarbeit, die in Form von geführten Wanderungen in jedem deutschen Nationalpark angeboten wird, in Anspruch nehmen, ist eine geeignete Umweltbildung durch Öffentlichkeitsarbeit erforderlich.
Alle Nationalparke bieten Informationen über die naturräumlichen Gegebenheiten und über Beeinträchtigungen der Ökosysteme an. Umfang und Qualität der Ausstellungen, Printmedien, Informationstafeln in der Natur und audiovisueller Medien variieren beträchtlich. Informationsmedien sind nicht immer geeignet, auf das Erlebnis Natur vorzubereiten und umfassende Informationen zu vermitteln. In den meisten Informationshäusern wird "ein Stück Natur" in die Ausstellung geholt, die dort ausgiebig betrachtet oder angefaßt werden kann; Hören und Riechen spielen noch eine untergeordnete Rolle. Beeinträchtigungen der Ökosysteme (Müll, Giftstoffe, Tourismus) werden in allen Informationsmedien dargestellt, in den Ausstellungen z.T. sehr dramatisch. Es sollte keine "heile Welt" dargestellt werden; Ausstellungen sollten betroffen machen, gleichzeitig jedoch Begeisterung für die Natur wecken.
Lernen über die Natur in und mit der Natur stehen im Vordergrund der Bildungsarbeit und führten bereits zu Konzepten, diese Erfahrungen auch ohne Ranger-Begleitung sammeln zu können: Im Nationalpark Bayerischer Wald wurde 1995 ein Naturerlebnispfad fertiggestellt, der Vorgänge in Ökosystemen veranschaulicht (spielerisch) und Zusammenhänge bewußt macht (wissenschaftlich, ethisch), der als Konzept für zukünftige Umweltbildungsarbeit zu sehen ist. Geowissenschaftliche und kulturhistorische Themen sollten immer miteinbezogen werden, um den Nationalpark als Gesamtraum erfassen zu können.
Um möglichst viele Besucher zu erreichen, müssen alle erdenklichen Informationsmedien eingesetzt werden. Insgesamt ist dieses Angebot noch nicht groß genug; acht der zwölf deutschen Nationalparke wurden jedoch erst nach 1990 gegründet, sind also noch sehr jung.
Bildungsarbeit wird in deutschen Nationalparken überwiegend durch Umweltsponsoring ermöglicht und ebenfalls Wirtschaftsunternehmen rücken die Nationalparke durch Printmedien u.ä. ins öffentliche Bewußtsein. Weder eines der Bundesministerien noch ein übergeordneter Fremdenverkehrsverband informiert zu allen deutschen Nationalparken. Verkehrsverbände der Nationalpark-Gemeinden erwähnen Nationalparke als Möglichkeiten zur Erholung allenfalls als "Touristische Attraktion" oder "Weitere Angebote".
Deutsche Nationalparke werden auf der gleichen gesetzlichen Grundlage wie Naturschutzgebiete geschützt. Naturschutz ist Ländersache, die Länder übertragen die Zuständigkeit z.T. an die Nationalparkverwaltungen. Die zwölf deutschen Schutzgebiete von nationaler Bedeutung in acht verschiedenen Bundesländern weichen in ihrem Schutzzweck und in ihrer Öffentlichkeitsarbeit voneinander ab. Besonders ungünstig wirkt sich dies bei der Besucherlenkung aus, zumal eine zu geringe Anzahl Mitarbeiter in den fremdenverkehrsbelasteten Nationalparken zur Verfügung steht.
Die ersten Schritte zur einheitlichen Darstellung und einheitlichen Besucherlenkung wurden von der FÖNAD unternommen. Sie gab die Entwicklung eines Besucherleit- und Informationssystems, eines Nationalpark-Logos und ein Konzept für einheitlich gestaltete Faltblätter (Corporate Design) in Auftrag; die Ergebnisse der Aufträge sollen die deutschen Nationalparke als einheitlich zu schützende Gebiete darstellen und Besuchern die Orientierung und das umweltverträgliche Verhalten erleichtern. Das Besucherleitsystem ist bereits in vier Nationalparken installiert. Diese Konzepte sind jedoch nur Richtlinien, die für die Nationalparkverwaltungen nicht verbindlich sind.
Aus den Antworten auf einen Fragebogen über Interpretive Services in ausgewählten Ländern ließ sich ersehen, daß die Nationalparke in etwa der Hälfte der antwortenden Staaten (n=27) dezentral organisiert sind, sich aber doch jeweils eine übergeordnete Behörde um die Darstellung des nationalen Naturerbes bemüht. National Park Services sind in den meisten Fällen nur für das Corporate Design zuständig, d.h. sie geben Vorgaben an die Nationalparkverwaltungen, die Medien dann um die räumlich spezifischen Informationen ergänzen. Nur in den Vereinigten Staaten ist der National Park Service für sämtliche Informationsmedien der mehr als 350 Gebiete nationaler Bedeutung zuständig.
Band 2 enthält eine Nationalpark-Bibliographie mit 2224 Literaturstellen (Stand: 4.11.1995).
Die vorliegende Arbeit behandelt das Forschungsthema der Entstehung des flüssigen Eisenkerns im Zentrum unseres Planeten. Dieses bislang wenig verstandene Gebiet ist reich an Fragestellungen, sowohl für Experimentatoren als auch für die Geodynamik. Es gibt sehr viele Arbeiten, die den Bildungsprozess experimentell untersuchen, jedoch wurde in den letzten Jahren die numerische Untersuchung in diesem Gebiet kaum vorangetrieben. Der experimentelle Teil der Arbeit stellt sich hierbei der aktuellen Frage nach der Perkolationsschwelle
1 von Eisenschmelze in der Silikatmatrix der Protoerde, während numerisch die Effekte von Potenzgesetzkriechen, Dissipation und Schmelzsegregation beim Absinken eines Eisendiapirs nach Ausbildung eines ersten flachen Magmaozeans in der Protoerde behandelt werden. Die genauen Fragestellungen könnnen dabei im letzten Abschnitt der Einleitung gefunden werden.
Im Rahmen dieser Arbeit wird der aktuelle Stand auf dem Gebiet des Lokalen Lovász Lemmas (LLL) beschrieben und ein Überblick über die Arbeiten zu konstruktiven Beweisen und Anwendungen gegeben. Ausgehend von Jószef Becks Arbeit zu einer algorithmischen Herangehensweise, haben sich in den letzten Jahren im Umfeld von Moser und Tardos und ihren Arbeiten zu einem konstruktiven Beweis des LLL eine erneute starke Beschäftigung mit dem Thema und eine Fülle von Verbesserungen entwickelt.
In Kapitel 1 wird als Motivation eine kurze Einführung in die probabilistische Methode gegeben. Mit der First- und Second Moment Method werden zwei einfache Vorgehensweisen vorgestellt, die die Grundidee dieses Beweisprinzips klar werden lassen. Von Paul Erdős eröffnet, beschreibt es Wege, Existenzbeweise in nicht-stochastischen Teilgebieten der Mathematik mithilfe stochastischer Überlegungen zu führen. Das Lokale Lemma als eine solche Überlegung entstammt dieser Idee.
In Kapitel 2 werden verschiedene Formen des LLL vorgestellt und bewiesen, außerdem wird anhand einiger Anwendungsbeispiele die Vorgehensweise bei der Verwendung des LLL veranschaulicht.
In Kapitel 3 werden algorithmische Herangehensweisen beschrieben, die geeignet sind, von der (mithilfe des LLL gezeigten) Existenz gewisser Objekte zur tatsächlichen Konstruktion derselben zu gelangen.
In Kapitel 4 wird anhand von Beispielen aus dem reichen Schatz neuerer Veröffentlichungen gezeigt, welche Bewegung nach der Arbeit von Moser und Tardos entstanden ist. Dabei beleuchtet die Arbeit nicht nur einen anwendungsorientierten Beitrag von Haeupler, Saha und Srinivasan, sondern auch einen Beitrag Terence Taos, der die Beweistechnik Mosers aus einem anderen Blickwinkel beleuchtet.
In dieser Arbeit wurde deutlich, dass die Multilevel Monte Carlo Methode eine signifikante Verbesserung gegenüber der Monte Carlo Methode darstellt. Sie schafft es den Rechenaufwand zu verringern und in fast allen Fällen die gewollte Genauigkeit zu erreichen. Die Erweiterung durch Richardson Extrapolation brachte immer eine Verringerung des Rechenaufwands oder zumindest keine Verschlechterung, auch wenn nicht in allen Fällen die schwache Konvergenzordnung verdoppelt wurde.
Im Falle der Optionssensitivitäten ist eine Anwendung des MLMC-Algorithmus problematisch. Das Funktional, das auf den Aktienkurs angewendet wird, darf keine Unstetigkeitsstelle besitzen, bzw. im Falle des Gammas muss es stetig differenzierbar sein. Die Anwendung der MLMC Methode macht dann vor allem Sinn, wenn sich die Sensitivität als Funktion des Aktienkurses umformen lässt, so dass nur der Pfad der Aktie simuliert werden muss. Nur wenn dies nicht möglich ist, wäre es sinnvoll, die in Kapitel 6.5 am Beispiel des Deltas vorgestellte Methode zu benutzen, in der man einen zweiten Pfad für das Delta simuliert.
Weitere Verbesserungsmöglichkeiten könnten in der Wahl von anderen varianzreduzierenden Methoden liegen oder durch Verwendung von Diskretisierungsverfahren mit höherer starker Ordnung als das Euler-Verfahren (vgl. [7], Verwendung des Milstein-Verfahrens). In diesem Fall ist theoretisch ein Rechenaufwand der Größenordnung O(ϵexp-2) möglich, da die Anzahl der zu erstellenden Samples nicht mehr mit steigendem L erhöht wird. Somit könnte das L so groß gewählt werden, dass der Bias verschwindet und der MSE ausschließlich von der Varianz des Schätzers abhängt. Um diese auf eine Größenordnung von O(ϵexp2) zu bringen, ist es nötig, O(ϵexp2) Pfade zu erstellen (siehe Gleichung (3.6)), was den Rechenaufwand begründet.
In vorliegender Arbeit wurde ein lineares Sigma-Modell mit verktoriellen sowie axial-vektoriellen Freiheitsgraden durch Einkopplung des Dilatons verallgemeinert, wodurch Kontakt mit der Skalen-Anomalie erzielt wurde. Anschließend war die Intention, die Zerfallsbreiten des entmischten Sigmafeldes sowie des entmischten skalaren Glueballs, die mit den skalaren-isoskalaren Resonanzen f0(1370) und f0(1500) identi
ziert wurden, auf Baumdiagrammniveau zu berechnen und mit experimentellen Befunden zu vergleichen, um Aussagen über die Natur dieser Resonanzen im Rahmen der durchgeführten Studie machen zu können.
Im Sommer 1992 wurde an Abschnitten der Rur und ihres Nebenflusses Inde (Niederrheinische Bucht, Nordrhein-Westfalen) die Ufervegetation pflanzensoziologisch untersucht und die lokale Verbreitung von Neophyten mit Hilfe einer speziell entwickelten Methode der Feinkartierung erfaßt.
Die Ufervegetation der Rur weist nur in zwei Teilbereichen natürliche bzw. naturnahe Vegetationstypen der Flußufer in guter Ausbildung auf; hier treten flächenhaft Gesellschaften der Convolvuletalia, des Phragmition und Sparganio-Glycerion, des Bidention und des Salicion purpureae auf. Die übrigen Bereiche der Rur und ebenso die Inde sind ausgebaut und durch relativ intensiv "gepflegte", botanisch verarmte Ufer gekennzeichnet.
Insgesamt wurden knapp 60 Kilometer Uferstrecke abgegangen und dabei etwa 30 neophytische Sippen nachgewiesen; hiervon wurden 15 ausgewählte Sippen systematisch kartiert. Für etwa ein Dutzend im Untersuchungsgebiet häufigere Neophyten wurden Verbreitungskarten erstellt und diskutiert.
Parallel zur Feinkartierung von Neophyten wurden im Gelände und aus schriftlichen Quellen verschiedene Formen anthropogener Standortveränderungen erfaßt, um Hinweise auf Zusammenhänge mit der Ausbreitung der Neophyten zu erhalten.
Aus einer Sichtung der diesbezüglichen Literatur ergaben sich zwei Gruppen von Hypothesen darüber, welcher Typ von anthropogenen Einflüssen die Ausbreitung von Neophyten an Flüssen besonders begünstigt: von einigen Autoren wurden direkte mechanische Eingriffe im Uferbereich, wie Kanalisierung und Auwaldrodung, als maßgeblich betrachtet, von anderen Autoren wurde dagegen in den chemischen Belastungen des Flußwassers der Hauptfaktor vermutet. Es wurde in der vorliegenden Arbeit aber davon ausgegangen, daß die Daten, die bisher zu Aussagen über die Neophyten-Problematik an Flußufern herangezogen wurden, im wesentlichen auf zu kleinmaßstäbigen Kartierungen und auf zu spezieller Betrachtung einzelner neophytischer Arten beruhten.
Deshalb wurde in der vorliegenden Arbeit versucht, zusätzlich zur Feinkartierung einen neuen methodischen Ansatz zu entwickeln, um die Bedeutung, die Neophyten insgesamt in der Vegetation eines bestimmten Flußabschnitts haben, synthetisch zu analysieren.
Es wurde ein "Neophyten-Index" als Maß des Neophytenreichtums ermittelt; er bezieht sich immer auf einen bestimmten Flußabschnitt und ergibt sich aus der Gesamtzahl und Häufigkeit der in dem Abschnitt gefundenen neophytischen Sippen. Der Neophyten-Index als synthetischer Ausdruck floristischer Veränderungen ermöglichte einen groben Vergleich mit Daten zu anthropogenen Standortveränderungen. Die Probleme derartiger schematischer Berechnungen wurden diskutiert; alle Aussagen über die Ergebnisse mußten vorbehaltlich der Notwendigkeit kritischer Interpretation erfolgen.
Eine wichtige Rolle bei den Untersuchungen spielte die Frage des Status von Neophyten-Vorkommen; wesentlich war auch die Kenntnis der aktuellen Phase der Einwanderung eines Neophyten in das Untersuchungsgebiet. Vorkommen mit zufälligem Charakter, also unbeständige oder vorpostenartige Vorkommen, erlauben nur begrenzt ökologische Aussagen. Deshalb waren nicht alle gefundenen Neophyten gleichermaßen für die Berechnung eines Neophyten-Index verwendbar. Neben Beobachtungen im Gelände waren zur Beurteilung dieser Fragen umfangreiche Auswertungen der Literatur notwendig. Als Ergebnis wurde also zunächst sippenbezogen die Geschichte der Ausbreitung rekonstruiert, sowie die gegenwärtige Verbreitung und der Status im Untersuchungsgebiet ermittelt. Acht Neophyten wurden dann als geeignet befunden, in die Berechnung des Neophyten-Index einzugehen.
Es ergaben sich deutliche Unterschiede im Neophyten-Index verschiedener Flußabschnitte: für den unteren Bereich der Rur unterhalb der Einmündung der Inde und besonders für die Inde selbst ergaben sich deutlich höhere Neophyten-Indices als für den oberen Bereich der Rur.
Entgegen häufigen allgemeinen Angaben in der Literatur gab es im Untersuchungsgebiet keinen erkennbaren Zusammenhang zwischen dem Ausbauzustand eines Flußabschnittes und dessen Neophytenreichtum; einige naturnah mäandrierende Abschnitte der Rur waren deutlich neophytenreicher als andere, regulierte Abschnitte.
Ebensowenig war im gewählten Maßstabsbereich ein Zusammenhang zwischen der Beschattung der Ufer durch Gehölze und dem Neophytenreichtum festzustellen; der gesamte obere Bereich der Rur war trotz geringer Beschattung relativ neophytenarm.
Eine sehr auffällige Koinzidenz besteht jedoch zwischen Neophyten-Index und der Gewässergüteklasse der Teilabschnitte; die Inde ist durch vor allem industrielle Abwässer erheblich verschmutzt, während die Rur oberhalb der Einmündung der Inde nur geringere Belastungen aufzuweisen hat. Eine deutliche Abhängigkeit der Neophyten-Ausbreitung von der Gewässerbelastung wurde in der Literatur bisher zwar von einigen Autoren vermutet, jedoch nie durch exakte Kartierungen in geeigneten Untersuchungsgebieten nachgewiesen.
Die hier nachgewiesene Koinzidenz zwischen Gewässerbelastung und Neophytenreichtum muß mit Vorsicht interpretiert werden; weitere Faktoren unbekannter Bedeutung kommen hinzu. Als Einschleppungsort bzw. Ausbreitungszentrum von Neophyten könnte etwa die Industrieregion im Einzugsgebiet der Inde - oberhalb des Untersuchungsgebiets - eine Rolle spielen. Auch ein Einfluß des Abflußregimes auf die Ausbreitung von Neophyten kann nach den vorliegenden Daten nicht ausgeschlossen werden.
Abschließend werden die konkreten Standortfaktoren Wasserhaushalt und Bodensubstrat bezüglich ihrer noch weitgehend im Dunkeln liegenden Abwandlung durch anthropogene Einflüsse diskutiert.
Diese Diplomarbeit beschäftigt sich mit dem Entwurf und der Implementierung der Auslesefirmware für den GET4 Chip im Rahmen des CBM (Compressed Baryonic Matter) Experiments.
Physikalische Experimente mit Teilchenbeschleunigern, wie das geplante CBM Experiment, erzeugen große Mengen an Sensordaten, die aufbereitet, gespeichert und ausgewertet werden müssen. Der GET4 Chip ist ein möglicher TDC (Time to Digital Converter) Chip mit 4 Kanälen für den TOF (Time of Flight) Detektor des CBM Experiments. Der GET4 Chip erzeugt einen Zeitstempel für die Treffer der TOF RPC (Resistive Plate Chambers) Sensoren.
Die Auslese der GET4 Daten wird von einem ROC (Readout Controller Board) übernommen, das mit einem FPGA (Field Programmable Gate Array) ausgestattet ist. Das ROC Board lässt sich über die ROC Firmware für verschiedene Einsatzzwecke flexibel konfigurieren, so dass damit auch andere Frontend Elektronik, wie z.B. der n-XYTER Chip, ausgelesen werden kann. Während dieser Diplomarbeit wurde das SysCore2 mit einem Virtex-4 FX20 als ROC verwendet. Inzwischen ist das SysCore3 verfügbar, das einen deutlich leistungsfähigeren FPGA besitzt. Die bisher verfügbare Firmware für den GET4 war für den Betrieb im 24 Bit Modus konzipiert.
Der bevorzugte Auslesemodus für den GET4 ist der 32 Bit Modus, da der 24 Bit Modus einige Beschränkungen aufweist und die volle Funktionalität des GET4s nur im 32 Bit Modus zur Verfügung steht. Im Rahmen dieser Diplomarbeit wurde die vorhandene 24 Bit Firmware für den 32 Bit Modus erweitert, so dass der zweite Datenkanal des GET4s, sowie der DDR (Double Data Rate) Modus für die Datenübertragung zur Verfügung steht. Neben der Erhöhung der Datenübertragungsraten stand die mögliche Skalierbarkeit der Firmware für die Auslese möglichst vieler GET4 Chips im Fokus. Dazu musste die Firmware umgestaltet werden, um die begrenzten BRAM Ressourcen des FPGAs nicht unnötig zu belegen.
Eine weitere wichtige Neuerung der 32 Bit Firmware ist die automatische Synchronisation der Epochen zwischen ROC und GET4. Dazu werden die Epochennachrichten der GET4s mit der Epoche des ROCs verglichen und bei Bedarf Synchronisationsnachrichten mit der korrekten Epoche an die GET4s gesendet.
Der Theorieteil befaßt sich mit den bisher vorliegenden Erkenntnissen über Lerntypen. Anregungen zu dieser Untersuchung kamen von den Neurophysiologen ECCELS J.C. und POSNER M.I.,von den Pädagogischen Psychologen WEIDENMANN B und GAAL J., von dem Pädagogen VESTER F. und dem Psychologen PAIVIO A., auf dessen Thesen von den drei Kodierungssystemen (1964) die Forschungsansätze zu diesem Thema beruhen. Darüber hinaus wurde der kommerzielle Hirndominanztest von HERMANN N. und einige Arbeiten von Vertretern des Neurolinguistischen Progammierens berücksichtigt.
Untersucht wurde die Auswirkungen der visuellen, auditiven und kinästhetischen Unterrichtsformen auf zwölf Jugendliche im Alter zwischen acht und zwölf Jahren. Im Anschluß an die Untersuchung wurde den Kindern ein Fragebogen vorgelegt, mit dessen Hilfe die präferierten Sinneskanäle erfaßt werden sollten. Dies schließt insofern eine Forschungslücke, als hier zum erstenmal die Modalitäten von Probanden festgestellt wurden. Dies befähigt zur Beantwortung der Frage: Wie unterrichte ich wen?
Die Kinder hatten am Jugendtraining des Licher Golfclubs teilgenommen und standen in den letzten drei Wochen der Saison 1996 für den Test zur Verfügung. Der Lernerfolg wurde ausschließlich durch einen Vergleich der Leistung vor und nach dem Unterricht ermittelt. Hierbei wurde beobachtet, daß jedes Kind eine bestimmte Reihenfolge von Lernmodalitäten bevorzugt. Ein für diese Situation entwickelter Fragebogen stimmte in 7 von 12 Fällen mit den Testergebnissen überein. Die Lernleistung kann bei Ansprache der präferierten Sinnesmodalitäten optimiert werden.
Die Ergebnisse haben gezeigt, daß Zusammenhänge zwischen der Instruktion präferierter Sinnesmodalitäten und der Lernleistung bestehen.
Der letzte Teil der Arbeit befaßt sich mit der praktischen Umsetzbarkeit der Ergebnisse und ihren möglichen Auswirkungen auf die Kommunikation.
Diese Arbeit befasst sich mit der Analyse der ersten Proton-Proton-Kollisionen, die mit dem ALICE-Experiment am LHC gemessen wurden. Der Schwerpunkt der Arbeit liegt dabei auf der Analyse des mittleren Transversalimpulses, einer Messgröße, mit der sich die Transversalimpulsspektren geladener, nichtidentifizierter Teilchen charakterisieren lassen. ALICE misst bei sqrt(s) = 900 GeV einen mittleren Transversalimpuls von
<pT> iINEL = 0;483 +/- 0;001(stat.) +/- 0;007(sys.) GeV=c (6.1)
<pT >NSD = 0;489 +/- 0;001(stat.) +/- 0;007(sys.) GeV=c (6.2)
Im Vergleich mit den Messungen anderer Experimente bei gleichem p s misst ALICE einen etwas höheren mittleren Transversalimpuls.
Neben der Analyse des mittleren Transversalimpulses des inklusiven Spektrums wird auch die Analyse als Funktion der Multiplizität erläutert. Mit der skalierten Multiplizität z = nacc= hnacci können die mit ALICE gemessenen Werte mit den Messungen von UA1 verglichen werden. Für z > 1 stimmen die Daten innerhalb der Fehler überein, für z < 1 divergieren die Daten von ALICE und UA1. Im weiteren Verlauf werden zwei Methoden vorgestellt, mit denen ein Übergang von der gemessenen Multiplizität zu einer korrigierten Multiplizität vorgenommen werden kann. Beide Methoden basieren auf einer mit PYTHIA generierten Korrelationsmatrix, die den Zusammenhang zwischen der generierten Multiplizitätsverteilung und der rekonstruierten Multiplizitätsverteilung enthält. Bei der einen Methode (A) werden die gemessenen Daten mit der Korrelationsmatrix gewichtet auf die generierte Multiplizität übertragen. Für die andere Methode (B) wird die Matrix zunächst entfaltet, um dann mit der entfalteten Multiplizitätsverteilung eine neue Matrix zu generieren. Mit dieser neuen Matrix wird dann jeder gemessen Multiplizitätsklasse eine wahrscheinlichste wahre Multiplizität zugewiesen. Die Ergebnisse beider Methoden sind vergleichbar. Für die weitere Analyse wird jedoch Methode A verwendet, da die Zuordnung in Methode B nicht eindeutig ist. Die mit dieser Methode analysierten Daten werden dann mit verschiedenen Simulationspaketen verglichen. Dabei stellt sich heraus, dass der PYTHIA-Tune Perugia0 die Daten am besten, jedoch nicht exakt, beschreibt. Mit den gemessenen Daten lassen sich die Modelle weiter optimieren, um eine Vorhersage bei höheren Strahlenergien machen zu können...
Gegenstand dieser Arbeit ist die Entwicklung eines CH-Rebunchers mit Energievariation für die sich in der Entstehungsphase befindliche Beschleunigeranlage des FRANZ Projektes am Institut für Angewandte Physik der Goethe Universität Frankfurt am Main.
Die FRANZ Experimente sollen Fragen der nuklearen Astrophysik und der Materialforschung beantworten. Experimente zu Neutroneneinfangsquerschnitten werden im Vordergrund stehen. Diese sollen hauptsächlich zum Verständnis der Vorgänge bei der Nukleosynthese in Roten Riesen beitragen...
Im Rahmen der vorliegenden Diplomarbeit wurde die Rolle der putativen mitochondrialen Kinase PINK1 untersucht. Die Mutationen in diesem Gen sind für die PARK6 Form von Morbus Parkinson ursächlich. Dies ist eine neurodegenerative Erkrankung, welche die Lebensqualität der Betroffenen weitgehend beeinträchtigt. Sie wird mit Dopamin-Ersatzmitteln und DBS (Deep Brain Stimulation) behandelt, beide nicht frei von Nebenwirkungen. Levodopa können bekannterweise zu schweren Fällen von Dyskinesie führen. Die Aufklärung der physiologischen Rolle von PINK1 würde den Wissenschaftlern auf dem Weg zur Früherkennung und anderen Therapiemöglichkeiten verhelfen. Die PARK6 Form der Parkinson Erkrankung wird derzeit anhand von verschiedenen Modellorganismen (M. musculus, D. melanogaster, D. rerio, C. elegans), sowie von verschiedenen Zellmodellen (HeLa, PC12, Fibroblasten aus PARK6 Patienten) untersucht. Als neuronale Zelllinie eignen sich die SH-SY5Y Zellen besonders gut für die Forschung an der durch den Verlust von dopaminergen Neuronen gekennzeichneten Parkinson-Erkrankung und sind diesbezüglich als ein relevantes Zellmodell breit akzeptiert (Xie et al.2010). In der vorliegenden Diplomarbeit wurden mit einem adenoviralen Konstrukt generierte PINK1 knockdown SH-SY5Y Zellen (M. Klinkenberg) als ein potentielles Zellmodell für die PARK6 Form von M. Parkinson analysiert. Als Kontrolle für die PINK1- abhängigen Effekte wurden NT (non target) Zellen herangezogen. Ausschlaggebend für die Wahl dieses Zellmodells war die Beobachtung, dass die PINK1 KD SH-SY5Y Zellen bei einer Reduktion des Serumgehaltes im Medium wesentlich langsamer wachsen als die NT Zellen (M. Jendrach). Die Serumdeprivation schien also der notwendige Stressfaktor zu sein, welcher zur Auslösung eines PINK1-abhängigen Phänotyps führen könnte. Daraus ergab sich die Frage, welche anderen PINK1-abhängigen Veränderungen unter Serumentzug zur Ausprägung kommen. Im Rahmen dieser Diplomarbeit wurde zunächst die relative Genexpression der PINK1 KD SH-SY5Y Zellen in Bezug auf die NT Zellen untersucht. Es zeigte sich, dass der PINK1 KD bei reduziertem Serumgehalt zur Herunterregulation weiterer Parkinsonrelevanter Gene führt, deren Produkte an verschiedenen zellulären Prozessen beteiligt sind. Die Effekte traten nur bei stabil transfizierten Zellen auf und waren durch einen transienten PINK1 KD nicht reproduzierbar. Viele dieser Gene sind für die Aufrechterhaltung der mitochondrialen Homöostase bedeutsam und deshalb wurde die mitochondriale Funktion und Erscheinung in den PINK1 KD SH-SY5Y Zellen genauer erforscht. Im Gegensatz zu früheren Befunden (Mai et al. 2010) wurde eine Herunterregulation des für die mitochondriale Teilung zuständigen Fis1-Proteins ermittelt, darüber hinaus aber keine Änderung der mitochondrialen Morphologie auch nach induziertem Zellstress beobachtet (Dagda et al. 2009, Lutz et al. 2009). Ein Defizit in der mitochondrialen Atmung wurde festgestellt, nachdem die Zellen bei 1g/L Glucose kultiviert und für 24h auf ein Galaktose-haltiges Medium transferiert wurden. Außerdem wurde ähnlich zu Amo et. 2010 al eine leicht verminderte Energieladung der betreffenden Zellen gefunden. Keine Beeinträchtigung der mtDNA-Integrität oder der Überlebensrate bei H2O2-induziertem oxidativen Stress wurde beobachtet. Weiterhin wurde untersucht, inwiefern die in den PINK1 KD SH-SY5Y Zellen beobachteten Veränderungen in der Genexpression auf weitere Zellmodelle (PINK1 KD HeLa, kortikale Neurone aus PINK1 KO und PINK1 KO / A53T alpha Synuclein überexprimierenden Mäusen) übertragbar sind. Dabei wurden einige Gemeinsamkeiten zwischen den PINK1 KD SH-SY5Y Zellen und den PINK1 KO /A53T α Synuclein überexprimierenden kortikalen Neuronen ermittelt. Angesichts des Verlustes von dopaminergen Neuronen in M. Parkinson wäre es bedeutsam nachzuvollziehen, ob und wie die verminderte Expression Parkinson-relevanter Gene in diesen PINK1 KD Zellmodellen kompensiert wird, so dass die Zellen trotz der genetischen Einschränkung bei idealisierten in vitro Bedingungen gut überleben können. Hier ist es vorstellbar, dass zusätzlicher Zellstress die Gemeinsamkeiten zwischen den PINK1 KD SH-SY5Y Zellen und den PINK1 KO / A53T SNCA überexprimierenden Neuronen erweitern könnte. Diesbezüglich wäre es auch relevant zu erforschen, unter welchen Umständen die potentiellen Kompensationsmechanismen versagen, so dass das Zellüberleben nicht mehr gewährleistet wird. Im Licht des altersbedingten Ausbruchs der Symptome bei M. Parkinson würden diese neuen Erkenntnisse dazu beitragen, die möglichen auslösenden Faktoren zu erfassen und so ein tieferes Verständnis der molekularen Mechanismen dieser schwerwiegenden Erkrankung zu erhalten.
Pion-Pion-Streuung in einem geeichten linearen Sigma-Modell mit chiraler U(2)R × U(2)L-Symmetrie
(2006)
Das Thema der vorliegenden Arbeit waren die leichten skalaren und vektoriellen Mesonen, die in einem chiral symmetrischen SU(2)-Modell zusammengefasst wurden; aufgrund der sich daraus ergebenden Lagrange-Dichte wurde die Streuamplitude für die Pion-Pion-Streuung im Vakuum berechnet, was sodann die Berechnung der s-Wellen-Streulängen an der Schwelle im Vakuum erlaubte.
Die Relevanz der Zuschreibung von "Hochbegabung" in der Biografie von besonders begabten Erwachsenen
(2007)
Mit dieser Arbeit konnten erstmalig Erkenntnisse über "hochbegabte" Erwachsene gewonnen werden, die bisher entweder nicht untersucht wurden oder aber hinter dem Schleier der Mystifizierung im Verborgenen blieben. Eine der wichtigsten Erkenntnis dieser Arbeit ist entgegen der Darstellung vieler Publikationen zu diesem Thema, dass die Zuschreibung von "Hochbegabung" nicht grundsätzlich biografisch relevant ist. Vielmehr ist die Relevanzeinstufung von "Hochbegabung" von entsprechenden Dispositionen und Ausprägungen mit ihren spezifischen Wirkungsmechanismen im Lebensablauf abhängig, die je nach Zusammenspiel in eine non-exklusive oder in eine exklusive "Hochbegabtenidentität" münden. Eine Normalitätserfahrung – und das ist die weitere wichtige Erkenntnis dieser Untersuchung – ist für eine non-exklusive "Hochbegabtenidentität" die notwendige Voraussetzung. Erst dadurch relativiert sich die durch die Zuschreibung bedingte Abgrenzung von Anderen. In diesem Zusammenhang erstaunt es nicht, dass ein kooperatives und annehmendes Umfeld gute Voraussetzungen für einen positiven Umgang mit der Begabung und somit auch für die Gelegenheit der Normalitätserfahrung gute Voraussetzungen liefert. Zu der vieldiskutierten Frage, ob eine vermutete "Hochbegabung" formal getestet und schließlich zertifiziert werden soll, kann somit auf Grundlage der Analyse nach der Marnier des Biografieforschers mit einem "je nach Lebenslage" Stellung genommen werden: Fühlt sich die betreffende Person mit der gegebenen Situation wohl und hat keine gravierenden, die weitere Identitätsentwicklung behindernde Schwierigkeiten und erfährt sich die besonders begabte Person als normal, so ist kritisch nach dem Nutzen einer Zuschreibung von "Hochbegabung" zu fragen. Nimmt sich die Person jedoch als ständiger Außenseiter wahr und resultieren daraus aufgrund des geringen Selbstwertes maßgebliche Schwierigkeiten in alltäglichen Situationen, so könnten die mit einer formalen Zuschreibung verbundenen Zutrittsmöglichkeiten zu entsprechenden Fördermaßnahmen durchaus eine Möglichkeit sein, Personen mit ähnlichen Erfahrungen kennenzulernen. Um diese Frage jedoch zufriedenstellend beantworten zu können, sind weitere, auf diese Frage zentrierte Untersuchungen notwendig. Ebenso sind ergänzend weitere Untersuchungen zur Identitätskonstruktion von per Zuschreibung ‚Hochbegabten’ unerlässlich, da die Methode des autobiografisch-narrativen Interviews hierbei an ihre Grenzen stößt (vgl. voriges Kapitel 8.6). Um das Moment der Etablierung einer Denkstruktur der "binären Schematisierung" und ihre Wirksamkeit zu erforschen, bedarf es unter anderem neurowissenschaftlichen Wissens, welches in dieser Arbeit nicht berücksichtigt werden konnte. Dennoch konnte anhand der Interviewtechnik des autobiografisch-narrativen Interviews erst die persönliche Relevanz der Zuschreibung von ‚Hochbegabung’ in den Biografien herausgearbeitet werden.