Refine
Year of publication
- 2008 (28) (remove)
Document Type
- Doctoral Thesis (10)
- diplomthesis (6)
- Book (3)
- Diploma Thesis (3)
- Bachelor Thesis (2)
- Part of Periodical (2)
- Article (1)
- Habilitation (1)
Language
- German (28) (remove)
Has Fulltext
- yes (28)
Is part of the Bibliography
- no (28)
Keywords
- Spektroskopie (3)
- Datenanalyse (2)
- Elementarteilchen (2)
- Kernphysik (2)
- Teilchenbeschleuniger (2)
- ATR-Perfusionszelle (1)
- ATR-Technik (1)
- ATR-perfusion cell (1)
- ATR-spectroscopy (1)
- Ablenkung <Physik> (1)
Institute
- Physik (28) (remove)
Ein wesentlicher Forschungsgegenstand der Kernphysik ist die Untersuchung der Eigenschaften von Kernmaterie. Das Verständnis darüber gibt in Teilen Aufschluss über die Erscheinungsweise und Wechselwirkung von Materie. Ein Schlüssel liegt dabei in der Untersuchung der Modifikation der Eigenschaften von Hadronen in dem Medium Kernmaterie, das durch Parameter wie Dichte und Temperatur gekennzeichnet werden kann. Man hofft damit unter anderem Einblick in die Mechanismen zu bekommen, welche zur Massenbildung der Hadronen beitragen. Zur Untersuchung solcher Modifikationen eignen sich insbesondere Vektormesonen, die in e+e- Paare zerfallen. Die Leptonen dieser Paare wechselwirken nicht mehr stark mit der Materie innerhalb der Reaktionszone, und tragen somit wichtige Informationen ungestört nach außen. Das HADES-Spektrometer bei GSI wird dazu verwendet die leichten bei SIS-Energien produzierten Vektormesonen rho, omega und phi zu vermessen. Hierzu wurde zum erste mal das mittelschwere Stoßsystem Ar+KCl bei einer Strahlenergie von 1,76 AGeV gemessen. Die im Vergleich zum früher untersuchten System C+C höhere Spurmultiplizität innerhalb der Spektrometerakzeptanz verlangte eine Anpassung der bisher verwendeten Datenanalyse. Das bisher verwendete Verfahren, mehrere scharfe Schnitte auf verschiedene Observablen seriell anzuwenden, um einzelne Leptonspuren als solche zu identifizieren, wurde durch eine neu entwickelte multivariate Analyse ersetzt. Dabei werden die Informationen aller beteiligten Observablen mit Hilfe eines Algorithmus zeitgleich zusammengeführt, damit Elektronen und Positronen vom hadronischen Untergrund getrennt werden können. Durch Untersuchung mehrerer Klassifizierer konnte ein mehrschichtiges künstliches neuronalen Netz als am besten geeigneter Algorithmus identifiziert werden. Diese Art der Analyse hat den Vorteil, dass sie viel robuster gegenüber Fluktuationen in einzelnen Observablen ist, und sich somit die Effizienz bei gleicher Reinheit steigern lässt. Die Rekonstruktion von Teilchenspuren im HADES-Spektrometer basiert nur auf wenigen Ortsinformationen. Daher können einzelne vollständige Spuren a priori nicht als solche gleich erkannt werden. Vielmehr werden durch verschiedene Kombinationen innerhalb derselben Mannigfaltigkeit von Positionspunkten mehr Spuren zusammengesetzt, als ursprünglich produziert wurden. Zur Identifikation des maximalen Satzes eindeutiger Spuren eines Ereignisses wurde eine neue Methode der Spurselektion entwickelt. Während dieser Prozedur werden Informationen gewonnen, die im weiteren Verlauf der Analyse zur Detektion von Konversions- und pi0-Dalitz-Paaren genutzt werden, die einen großen Beitrag zum kombinatorischen Untergrund darstellen. Als Ergebnis wird das effizienzkorrigierte, und auf die mittlere Zahl der Pionen pro Ereignis normierte, Spektrum der invarianten Elektronpaarmasse präsentiert. Erste Vergleiche mit der konventionellen Analysemethode zeigen dabei eine um etwa 30% erhöhte Rekonstruktionseffizienz. Das Massenspektrum setzt sich aus mehr als 114.000 Paaren zusammen -- über 16.000 davon mit einer Masse größer als 150 MeV. Ein erster Vergleich mit einem einfachen thermischen Modell, welches durch den Ereignisgenerator Pluto dargestellt wird, eröffnet die Möglichkeit, die hier gefundenen Produktionsraten des omega- und phi-Mesons durch m_T-Skalierung an die durch andere Experimente ermittelten Raten des eta zu koppeln. In diesem Zusammenhang findet sich weiterhin ein von der Einschussenergie abhängiger Produktionsüberschluss von F(1,76) = Y_total/Y_PLUTO = 5,3 im Massenbereich M = 0,15...0,5 GeV/c^2. Die theoretische Erklärung dieses Überschusses birgt neue Erkenntnisse zu den in-Medium Eigenschaften von Hadronen.
Die vorliegende Arbeit präsentiert den Aufbau und die Diagnostik eines Niederdruck-HF-Plasmas. Durchgeführt wurden die Messungen in einem Gasgemisch aus Ar/He (50%=50%). Sie dienten dazu, nähere Einblicke in die Plasmaparameter eines HF-Plasmas zu erhalten. Einen Schwerpunkt der vorliegenden Arbeit bildete dabei die Auswirkung unterschiedlicher Antennengeometrien auf die Entladungseigenschaften. Hierfür wurden die Plasmaparameter Elektronentemperatur Te, Elektronendichte ne und HF-Leistung in Abhängigkeit des Gasdruckes bei einer Vorwärtsleistung des HF-Generators von 1kW untersucht. Um eine sinnvolle Diagnostik zu gewährleisten, war es zunächst erforderlich eine induktive HF-Einspeisung zu konzipieren und eine Impedanzanpassung an dem vorhandenen 13,56MHz Generator vorzunehmen. Die Einspeisung der HF-Leistung geschieht über eine Spule, nach dem Transformatorprinzip. Der Aufbau bietet die Möglichkeit einer modularen Gestaltung der verwendeten Antennengeometrie. Hierdurch ist es möglich, sowohl die Länge, die Windungsbreite als auch die Windungsanzahl schnell zu ändern, um experimentell ein Optimum der Plasmaparameter bezüglich der Plasmaanregung zu erreichen.
Für die Bestimmung der Plasmaparameter wurde vorwiegend eine nicht invasive Diagnostiktechnik, die Emissionsspektroskopie, eingesetzt. Sie bietet den Vorteil, ein Plasma unberührt zu lassen und dessen Eigenschaften nicht zu verfälschen. Zusätzlich wurde mit einer Langmuirsonde die Elektronendichte gemessen. Die eingespeiste HF-Leistung wurde mit einem im HF-Generator befindlichen Reflektometer überwacht und dokumentiert. Durch systematisch durchgeführte Messungen konnte die Elektronentemperatur in Abhängigkeit des Gasdruckes für unterschiedliche Spulengeometrien mit Hilfe der Spektroskopie bestimmt werden. Es ergaben sich typische Elektronentemperaturen einer induktiven Entladung zwischen 1 eV und 5 eV. Die Ursache einer höheren Elektronentemperatur bei niedrigen Gasdrücken, unterhalb von 1 Pa, kann durch die stochastische Heizung sowie resonante Heizmechanismen erklärt werden.
Die mit der Langmuirsonde bestimmte Elektronendichte belief sich auf 4 x 10 exp 15 m exp -3 bei niedrigen Gasdrücken und einem Maximum von 4 x 10 exp 17 m exp -3 bei einem Gasdruck von 3 Pa. Elektronendichten dieser Größenordnung sind typisch für induktive Entladungsplasmen, die ein Maximum von 1019 m exp -3 [Lie05] erreichen können.
Die eingespeiste HF-Leistung zeigte dabei eine starke Abhängigkeit von der Antennengeometrie. Durch die Optimierung der Spulenkonfiguration ergab sich eine maximale eingespeisten HF-Leistung von 0,8kW.
Ein Vergleich von HF-Leistung und Elektronendichte bestätigte die theoretische Modellvorstellung, die einen linearen Zusammenhang zwischen diesen beiden Größen postuliert. Somit konnten wichtige Eigenschaften bezüglich einer HF-Entladung sowie Einflüsse der Antennengeometrie auf die Entladungseigenschaften untersucht und umfangreich diskutiert werden.
Die Coltrims-Methode hat sich seit den 1990er Jahren als gutes experimentelles Instrument in der Atomphysik und darüberhinaus etabliert. Sie beruht darauf, dass die bei einer Reaktion entstehenden Fragmente mit ortssensitiven Detektoren nachgewiesen werden. Die Signale der Detektoren wurden bisher mit einem analogen Vorverstärker verstärkt und dann mit Hilfe eines Constant Fraction Discriminators in digitale Signale umgewandelt. Die Zeitinformation der digitalen Signale wurden von Time to Digital Convertern aufgenommen und im Computer gespeichert. Mit dieser Form der Auslese und Analyse der von den Detektoren stammenden Signale können nur einige wenige Fragmente nachgewiesen werden. Die Lösung dieses Problems besteht also darin, eine neue Variante für die Auslese und Analyse der Signale zu finden. Diese wurde in der Verwendung eines Transientenrekorders gefunden. Anstatt nur die Zeitinformation zu speichern, nimmt dieser die gesamte Signalform der Detektoren auf. Die Aufgabe, die in dieser Arbeit bearbeitet werden sollte, bestand darin, eine Software zu entwickeln, mit deren Hilfe der Transientenrekorder gesteuert werden kann. Auch sollte ein Weg gefunden werden nur die für das Experiment notwendigen Informationen des aufgenommenen Zeitfensters zu speichern. Des Weiteren sollten Methoden aufgezeigt werden, wie die aufgenommen Signale untersucht und deren Parameter extrahiert werden können. Diese Methoden wurden dann an realen Signalen getestet. Nachdem im ersten Kapitel die Motivation zu dieser Arbeit und einige theoretische Hintergründe vorgestellt werden, wird im zweiten Kapitel auf verschiedene Methoden der Signalanalyse eingegangen. Der Augenmerk liegt dabei sowohl auf Einzel- sowie Doppelsignalanalyse. Die Güte der vorgestellten Algorithmen wird mit Hilfe von künstlichen Signalen ermittelt. Es zeigt sich, dass die beste Methode die zeitliche Position der Einzelsignale zu finden, der Pulsfit ist. Mit dieser Methode kann eine Auflösung von etwa 50 ps erzielt werden. Bei der Betrachtung der Doppelsignale stellt sich heraus, dass der minimale Abstand zwischen den Signalen 5 ns bis 7 ns betragen muss. Das dritte Kapitel zeigt eine Anwendung des neuen Aufnahmesystems. Dort werden die physikalischen Ergebnisse, die mit Hilfe des neuen Systems gewonnen werden konnten, mit einem herkömmlichen Aufnahmesystem verglichen. Aufgrund der geringeren Totzeit des neuen Aufnahmesystems konnte mehr Statistik gewonnen werden. Der dadurch gewonnene Vorteil zeigt sich deutlich in den Ergebnissen, bei denen eine vierfach Koinzidenz verlangt wird. Bei dem nächsten Kapitel beschriebenen Experiment mussten sehr viele Fragmente nachgewiesen werden. Hierzu wird ein weiteres Kriterium neben der Zeitsumme vorgestellt mit dem die Anodensignale einander zugewiesen werden können. Die in diesem Kapitel gezeigten physikalischen Ergebnisse zeigen die Impulsverteilungen für Neon und Helium für unterschiedliche Lichtintensitäten bzw. Ionisationsprozesse. Im darauf folgenden Kapitel wird beschrieben, wie die neue Aufnahmemethode dazu verwendet werden kann, die von den Detektoren kommenden Signale genauer zu analysieren. Die physikalische Reaktion führte dazu, dass von dem Detektor hauptsächlich Doppelsignale aufgenommen wurden. Dies erlaubt die Untersuchung der Doppelsignalalgorithmen an realen Signalen. Hierbei zeigte sich, dass die Totzeit bei realen Signalen vergleichbar mit der Totzeit bei künstlichen Signalen ist. Die Algorithmen können bei Abständen der Einzelsignale von weniger als 10 ns die Position der Signale nicht mehr genau bestimmen. Anhand der Pulshöhenverteilung kann gezeigt werden, dass der verwendete Detektor in der Mitte eine geringere Nachweiseffizienz hatte. Im letzten Kapitel wird die Güte der verschiedenen Methoden der Einzelsignalanalyse anhand von realen Signalen überprüft. Dabei wurden Signale desselben Detektors mit unterschiedlichen Vorverstärkern verstärkt. Die beiden Vorverstärker unterschieden sich in ihrer Bandbreitenbegrenzung. Die Daten wurden mit einem Transientenrekorder mit 2 GS aufgenommen. Es wird gezeigt wie diese Daten umgewandelt werden können, so dass sie einem System mit nur 1 GS entsprechen. Dies erlaubt es die Güte der Methoden für Signale eines Systems mit 2 GS mit denen eines Systems mit 1 GS zu vergleichen. Es zeigt sich in der Pulshöhenverteilung, dass die Signale des stärker bandbreitenbegrenzten Vorverstärkers vergleichbar mit den künstlichen Signalen sind. Die Signale des weniger stark bandbreitenbegrenzten Vorverstärkers weisen eine zu starke Abhängigkeit ihrer Breite von der Pulshöhe auf. Aus diesem Grund sind die Ergebnisse des letzt genannten Vorverstärkers abweichend von den Ergebnissen mit den künstlichen Signalen. Bei diesem Vorverstärker zeigte der einfache Constant Fraction Algorithmus die beste Auflösung.
Die HBT-Interferometrie bietet über die Analyse von Bose-Einstein-Korrelationen geladener Pionen die Möglichkeit, Raumzeit-Dimensionen von Kern-Kern-Reaktionen zu vermessen. Dadurch kann das Ausfrierverhalten der in diesen Reaktionen enstehenden teilchenemittierenden Quelle untersucht werden. Die so gewonnenen Informationen tragen zu einem Verständnis der in den Kollisionen ablaufenden Prozesse und somit zu Erkenntnissen über Kernmaterie unter extremen Bedingungen bei. Von besonderem Interesse ist dabei die Beobachtung der Ausbildung eines QGP-Zustandes. Hierfür sind systematische Studien von verschiedenen Kollisionssystemen und -energien von großer Bedeutung.
Im Rahmen dieser Arbeit wurde eine Analyse von Bose-Einstein-Korrelationen in Pb-Au-Kollisionen bei einer Strahlenergie von 80A GeV durchgeführt. Die hier analysierten Daten wurden mit dem CERES-Detektor am SPS-Beschleuniger des CERN aufgenommen. Diese Analyse stellt eine erneute Untersuchung des Datensatzes unter Verwendung einer verbesserten Kalibrierungsprozedur für den CERES-Detektor dar. Infolgedessen konnte eine Verringerung der systematischen Unsicherheiten erreicht werden. Die neuen Ergebnisse stimmen mit den von der CERES-Kollaboration bereits publizierten HBT-Ergebnissen zufriedenstellend überein. Der Vergleich mit den Ergebnissen des NA49-Experiments, dass Pb-Pb-Kollisionen bei gleicher Strahlenergie unter dem Aspekt der HBT-Interferometrie untersucht hat, zeigt ebenfalls eine Übereinstimmung.
Durch diese Konsistenz und die Minimierung der systematischen Unsicherheiten im Bereich der SPS-Energien wird nun die Interpretation des Ausfrierverhaltens der Quelle besser ermöglicht: In dieser Arbeit wurde eine universelle Ausfrierbedingung von Pionen bei unterschiedlichen Schwerpunktsenergien und für verschiedene Kollisionssysteme untersucht. Diesbezügliche Observablen sind das mittels HBT-Radien bestimmte Ausfriervolumen und die mittlere freie Weglänge von Pionen zum Zeitpunkt des Ausfrierens der Quelle.
Bei dieser Untersuchung in Abhängigkeit von der Schwerpunktsenergie der Kollision zeichnet sich ein Minimum des Ausfriervolumens bei hohen AGS- und niedrigen SPS-Energien ab. Zusätzlich ergibt sich für die mittlere freie Weglänge ein ebenfalls nicht monotones Verhalten in diesem Energiebereich. Aus der dort vergrößerten Weglänge lässt sich auf eine erhöhte Emissiondauer der teilchenemittierenden Quelle gegenüber anderen Energien schließen. Die Emissionsdauer spielt in Verbindung mit dem Nachweis eines QGP-Zustandes eine wichtige Rolle. Ob die beschriebenen Beobachtungen durch ein Ausbilden dieses Zustandes oder auf Grund von anderen unbekannten Mechanismen hervorgerufen werden, kann abschließend noch nicht beurteilt werden. Denn verbleibende systematischen Unsicherheiten bei niedrigen Schwerpunktsenergien lassen derzeit keine weiteren Interpretationen zu. Insbesondere betrifft dies die noch bestehende Diskrepanz der Ergebnisse zwischen CERES und NA49 für eine Strahlenergie von 40A GeV. Daher ist eine Reanalyse der Daten von CERES bei dieser Strahlenergie von Bedeutung. Ebenso würde eine erneute systematische Messung im AGS-Energiebereich weitere grundlegende Interpretationen ermöglichen.
In Zukunft werden am RHIC-Beschleuniger des BNL in den USA und im Rahmen des FAIR-Projektes an der GSI bei Darmstadt Experimente in dieser Energieregion durchgeführt werden. Möglicherweise kann dann anhand dieser Messung ein universelles Ausfrierkriterium für Pionen sowie der Grund für ein verändertes Systemverhalten bei bestimmten Energien festgestellt werden.
Motiviert durch aktuelle atomphysikalische Fragestellungen zur Struktur und Dynamik der Materie im Bereich hochgeladener Schwerionen entstand der Bedarf zur Weiterentwicklung bestehender und zur Entwicklung neuartiger ortsauflösender Detektorsysteme. Die Untersuchung der Struktur ist hauptsächlich durch die hochauflösende spektroskopische Vermessung einzelner Energieniveaus der atomaren Hülle bestimmt und liefert grundlegende Einblicke in den atomaren Aufbau. Dabei stellen diese Resultate gerade bei schweren hochgeladenen Ionen eine exzellente Testmöglichkeit der QED in extrem starken Feldern dar. Die Dynamik der Materie zeigt sich in der Teilchendynamik (hier der Atomhülle) in extrem starken und extrem kurzen elektromagnetischen Feldern, wie sie bei Ion-Atom-Stößen auftreten. Beobachtet werden können hier vor allem Teilchen und Photonen-Polarisationsphänomene. Solche Polarisationseffekte sind jedoch nicht auf das Gebiet der atomaren Hülle beschränkt. Als ein Beispiel sei die Untersuchung laserbeschleunigter Teilchen genannt. Hier kann die Polarimetrie von Röntgenstrahlung, die durch Thomson-Streuung optischer Photonen an den zuvor auf relativistische Geschwindigkeiten beschleunigten Teilchen erzeugt wird, Aufschluß über die Natur des Beschleunigungsprozesses geben. Einblick in die lineare Polarisation der Röntgenphotonen im für unsere Arbeit interessanten Energiebereich von einigen 10 keV bis einigen 100 keV können mit Compton-Polarimetern gewonnen werden. Kommerziell sind Detektorsysteme, die eine ausreichende Granularität in Kombination mit hinreichender Detektordicke besitzen, um hohe Nachweiseffizienzen zu erreichen, jedoch nicht verfügbar. Im Rahmen der vorgelegten Arbeit, die sich mit Techniken der hochaufgelösten Röntgenspektroskopie und der Röntgenpolarimetrie an hochgeladenen Schwerionen befasst, wurden vielfältige Arbeiten an und mit orts-, zeit- und energieauflösenden planaren Ge(i)-Detektorsystemen durchgeführt. Wesentliches Ziel der Arbeit war es, ein zweidimensional ortsauflösendes planares Halbleiterdetektorsystem, das für den Einsatz im Kristallspektrometer FOCAL und als Compton-Polarimeter angepasst ist, bereitzustellen. Hierzu wurde ein 2D-µ-Streifendetektorsystem aufgebaut, das eine Ortsauflösung von 250µm, bzw. 1167µm in orthogonaler Richtung, bei einer Detektordicke von 11mm und eine Energieauflösung von etwa 2 keV für jeden einzelnen Streifen bei 60 keV Photonenenergie gewährleistet. Durch Messungen an der Synchrotronquelle ESRF, Grenoble (Frankreich), wurde die Eignung des Systems als bildgebendes Element im FOCAL Kristallspektrometer bei einer Photonenenergie von 60 keV und als Compton-Polarimeter bei einer Photonenenergie von 210 keV untersucht. Der große Vorteil in FOCAL ein ortsauflösendes Detektorsystem einzusetzen, liegt darin, dass alle interessanten Beugungswinkel simultan beobachtet werden können. Im herkömmlichen Ansatz würde man mit einer einfachen Diode und einem Kollimator den Bereich abfahren. Wegen der geringen Ereignisrate und dem hohen Untergrund ist dies jedoch nicht praktikabel. Herkömmliche Systeme wie CCD oder Gasdetektoren haben nicht die nötige Effizienz oder eine zu hohe Dunkelrate. Zur Untersuchung der für FOCAL wichtigen Eigenschaften wurden mehrere Positionen auf dem Detektor bei niedriger Energie mit einem fein kollimierten Photonenstrahl (50 x 50 µm2) gescannt. Neben der guten Energieauflösung des Detektorsystems von durchschnittlich 2.2 keV bei 60 keV, zeigen die Ergebnisse das homogene Verhalten der Detektoreffizienz, welche essentiell für den spektographischen Einsatz in FOCAL ist. Es konnten keine Hinweise auf messbare Ladungsverluste im Bereich des aktiven Detektorvolumens festgestellt werden. Ebenso konnte die Multiplizität (Anzahl der Streifen einer Detektorseite, die auf ein Ereignis reagieren), mit der ein Photon nachgewiesen wird, eindeutig mit der Strukturierung der Kontakte auf der Kristalloberfläche in Verbindung gebracht werden. Es stellte sich heraus, dass die Ereignisse der Multiplizität zwei dazu verwendet werden können um Ortsauflösungen deutlich unterhalb einer Streifenbreite zu erreichen. Diese Methode kann jedoch nur auf eine größere Anzahl von Ereignissen angewendet werden, nicht jedoch auf einzelne Ereignisse. Um das 2D-Ge(i)-µ-Streifendetektorsystem auf seine Eignung als Compton-Polarimeter zu testen, wurden Daten mit einem nahezu vollständig linear polarisierten Photonenstrahl (98% linear polarisiert) bei einer Energie von 210 keV aufgenommen. Die Daten zeigen die erwartete Dipol-ähnliche Asymmetrie im Ortsbild und dienen als Kalibrationsgrundlage zur Interpretation zukünftiger Experimente zur Polarimetrie in diesem Energiebereich. Parallel hierzu wurde an Simulationsprogrammen auf Basis der etablierten Monte Carlo Software EGS4 gearbeitet. Hiermit wurden Vorhersagen bezüglich des Nachweisverhaltens des Detektors auf linear polarisierte Röntgenstahlung gemacht. Ferner wurde für ein 4x4-Pixel-Polarimeter, das bei der ersten Bestimmung der linearen Polarisation der K-REC Strahlung von U92+ am Speichering ESR der GSI eingesetzt wurde, im Rahmen der Datenanalyse mit den auf EGS4-basierenden Programmen die Detektoreffizienz für linear polarisierte Strahlung einer bestimmten Energie simuliert. Mit diesen Simulationsergebnissen konnten die selbstentwickelten Methoden zur Korrektur der Nachweiswahrscheinlichkeit eines Compton-Ereignisses als Funktion des Wechselwirkungspunkts innerhalb des Detektorkristalls und der Energie erfolgreich verifiziert werden. Die detektorbezogenen Resultate dieser Arbeit fanden ihre erste Anwendung in der FOCAL-Spektrometer Strahlzeit 2006, deren genaue Beschreibung jedoch über den Umfang dieser Arbeit hinausgeht. Ebenso flossen die Erfahrungen, die mit den Detektorsystemen, im speziellen dem 2D-Ge(i)-µ-Streifendetektor, gemacht wurden in die Realisierung eines Si(Li)-Detektors mit 32+32 Streifen zur Compton-Polarimetrie bei niedrigeren Energien (ab 60 keV) ein, der gegenwärtig in ersten Experimenten am ESR eingesetzt wird.
Die Untersuchung der Eigenschaften von Hadronen und ihren Konstituenten (Quarks und Gluonen) in heißer und/oder dichter Kernmaterie ist eines der Hauptziele der Physik mit schweren Ionen. Der Zustand dichter und heißer Materie kann im Labor für kurze Zeit in der Reaktionszone von relativistischen Schwerionenkollisionen geschaffen werden. Einen Einblick über die Eigenschaften der starken Wechselwirkung und über die Massenerzeugung der Hadronen geben Dileptonen-Experimente, da Leptonen nicht von der starken Wechselwirkung beeinflusst werden. Unabhängig von der Strahlenergie zeigen die invarianten Massenspektren der Dileptonen in Schwerionenkollisionen im Vergleich zur Superposition der erwarteten hadronischen Zerfälle im Vakuum einen Überschuss im invarianten Massenbereich 0,2 - 0,6 GeV/c². Während dieser Überschuss bei CERN-SPS Energien in Zusammenhang mit der In-Medium-Modifikation der Spektralfunktion des Rho-Mesons gebracht wird, konnte die hohe Zahl der Dileptonen, die von der DLS Kollaboration in C + C und Ca + Ca bei 1 GeV/u beobachtet wurde, bis zum Erscheinen der HADES Daten nicht zufrieden stellend erklärt werden. Die Diskrepanz zwischen experimentellen Daten und Transportrechnungen erhielt den Namen "DLS Puzzle". In diesem Zusammenhang wurde eine kontroverse Diskussion über die Validität der Ergebnisse der DLS Kollaboration geführt. Das HADES Detektorsystem (High Acceptance Di-Electron Spectrometer), das sich am Schwerionensynchroton der Gesellschaft für Schwerionenforschung (GSI) in Darmstadt befindet, ist zur Zeit das einzige Experiment, das Dielektronen bei Projektilenergien von 1 - 2 GeV/u misst. Es tritt somit die Nachfolge des DLS Experiments an. Jedoch ist HADES durch zahlreiche technische Verbesserungen, u.a. Massenauflösung und Akzeptanz, im Vergleich zum Spektrometer DLS ein Experiment der 2. Generation. Erste Ergebnisse der Messung 12C + 12C bei 2 GeV/u der HADES Kollaboration bestätigen den generellen Trend einer erhöhten Zählrate im Vergleich zu den erwarteten Beiträgen von hadronischen Zerfällen. Es stellt sich die Frage, wie sich diese Beobachtung zu kleineren Strahlenergien hin fortsetzt. Im Rahmen der vorliegenden Arbeit wird die mit dem HADES Detektorsystem durchgeführte Messung der Dielektronenproduktion in der Schwerionenkollision 12C + 12C bei einer Projektilenergie von 1 GeV/u ausgewertet. Wesentliche Zielsetzungen sind u. a. die Überprüfung der DLS Daten und die Bestimmung der Anregungsfunktion des Überschusses. In der Analyse wird demonstriert, dass Leptonen effizient nachgewiesen werden. Die dargestellte Paaranalyse zeigt, dass der kombinatorische Untergrund erfolgreich reduziert und die Menge der wahren Dielektronen weitgehend erhalten werden kann. Nach Abzug des kombinatorischen Untergrundes werden die effizienzkorrigierten und normierten invarianten Massen-, Transversalimpuls- und Rapiditätsverteilungen der Dielektronen untersucht. Die Ergebnisse werden mit hadronischen Cocktails verschiedener theoretischer Ansätze verglichen. Diese beinhalten die Beiträge kurz- und langlebiger Dileptonenquellen einer thermischen Quelle (PLUTO) sowie mikroskopische Transportrechnungen (HSD,IQMD). Im Massenbereich 0,2 - 0,6 GeV/c² wird der gemessene Überschuss relativ zu den Vorhersagen bestätigt. Zusammen mit den Ergebnissen der Messung 12C + 12C bei 2 GeV/u zeigt sich, dass der Überschuss mit abnehmender Strahlenergie relativ zunimmt. Eine detaillierte Analyse zeigt, dass der Überschuss in dem Massenintervall 0,15 - 0,5 GeV/c² als Funktion der Projektilenergie entsprechend der Zahl der produzierten neutralen Pionen und nicht wie die Zahl des Eta-Mesons skaliert. Der direkte Vergleich der HADES mit den DLS Ergebnissen zeigt, dass die Daten der vorliegenden Arbeit mit den für lange Zeit angezweifelten DLS Resultaten übereinstimmen. Die Frage nach dem physikalischen Ursprung des Überschusses rückt somit erneut in den Vordergrund. In diesem Zusammenhang ist das Studium der Dileptonenproduktion in elementaren Reaktionen p + p und d + p wichtig. Neuere Rechnungen mit einem One Boson Exchange (OBE) Modell deuten darauf hin, dass die Beiträge von p-p und hauptsächlich p-n zur Bremsstrahlung signifikant höher sind als bisher vermutet. Eine aktualisierte Transportrechnung (HSD), deren Parametrisierung der Bremsstrahlung durch dieses OBE Resultat inspiriert ist, scheint in der Lage zu sein, die Ergebnisse der Messungen 12C + 12C bei 1 GeV/u der HADES und DLS Kollaboration recht gut zu beschreiben. Die entsprechenden Vergleiche sind dargestellt und werden diskutiert. Aber auch die Transportrechnung IQMD erklärt die HADES Daten recht gut. Daher ist es offensichtlich, dass eine direkte Gegenüberstellung der OBE Modellrechnungen und der von der HADES Kollaboration gemessenen und derzeit analysierten Daten zur Dileptonenproduktion in p + p und d + p Reaktionen erforderlich ist. Nur so können sichere Schlüsse über den Ursprung der Dileptonen bei SIS Energien gezogen werden.
In dem in dieser Arbeit vorgestellten Experiment wurde die Reaktion zwischen molekularem Wasserstoff und hochgeladenen langsamen Ar8+-Ionen untersucht. Ein Augenmerk wurde hierbei auf den Zweifachelektroneneinfang gelegt.
Anhand zwei durchgeführten Messungen mit unterschiedlichen Projektilgeschwindigkeiten 0,2 und 0,36 a.u. und unter zur Hilfenahme des so genannten „over-barrier-Modells“ sollte die Dynamik des H2-Moleküls während des Elektroneneinfangprozesses untersucht werden. Aus den daraus resultierten Ergebnissen sollte die Frage, ob der Einfangsprozess simultan oder sequentiell stattgefunden hat beantwortet werden.
Durch einfache Berechnungen kann mit dem „over-barrier-Modell“ die Distanz, welche das Projektil zwischen dem ersten und dem zweiten Elektroneneinfang zurücklegt, in Abhängigkeit von dem Stoßparameter ermittelt werden. Dieser Wert ist der Hauptbestand aller weiteren Berechnungen.
Die Spektren der Impulsüberträge in Abhängigkeit von der Ausrichtung des Moleküls zu dem Projektilstrahl haben gezeigt, dass das Projektil meist über und unter der Molekülachse streut anstatt links oder rechts am Molekül vorbei zu fliegen.
Die Auftragung der kinetischen Energie der Fragmente gegen den Transversalimpuls des Projektils (Abbildung 5.6) hat ergeben, dass größere Impulsüberträge für den Fall der senkrechten Stellung des Moleküls zu der Strahlachse, zu leicht erhöhten Aufbruchsenegien führt, was durch die Berechnung der Energie zu erklären ist.
Aus der Verteilung der kinetischen Energie (KER), welche die durch Dissoziation entstandenen Wasserstoffionen nach dem Stoß besitzen, kann auf den Verlauf der Reaktion zurück geschlossen werden.
Ein Vergleich der KER-Spektren für unterschiedliche Stoßparameter (Abbildung 5.8 und 5.9) bei festen Geschwindigkeiten hat für die zwei Messungen widersprüchliche Ergebnisse gezeigt. Zu erwarten war eine Verkleinerung der Energiewerte bei ansteigendem Stoßparameter. Dies konnte jedoch nur für den Fall in welchem die Projektilgeschwindigkeit 0,36 a.u. betrug bestätigt werden. Die Abweichung bei der ersten Messung kann durch statistische Fehler kommen, da die Anzahl der Messwerte, die für diese Messungen als „richtige“ angenommen worden, durch das Setzen von verschiedenen Bedingungen stark reduziert wurde.
Letztendlich wurde anhand der Variation der Stoßparameter bei festen Projektilgeschwindigkeiten die Zeitskala während des Stoßes eingeschätzt. Es wurde die Annahme getroffen, dass der Zweifachelektroneneinfang als zweistufiger Prozess abgelaufen ist und die maximal mögliche Zeitspanne zwischen dem ersten und dem zweiten Elektroneneinfang berechnet. Der Vergleich der daraus resultierten Werte mit der Oszillationsdauer des Wasserstoffmoleküls hat die getroffene Annahme widerlegt. Beide Messungen sind laut „over-barrier-Modell“ als einstufiger, schneller Übergang einzuordnen.
Das Ziel dieser Diplomarbeit war die Untersuchung der Reaktion des Zweifachelektroneneinfangs mit einem Augenmerk auf den Unterschied zwischen dem simultanen und dem sequentiellen Verlauf. Die Ergebnisse haben einen zweistufigen Prozess mit hoher Wahrscheinlichkeit ausgeschlossen. Obwohl alle theoretischen Anforderungen für den Einsatz des „over-barrier-Modells“ erfüllt worden sind, hat sich herausgestellt, dass die gemessenen Werte nicht immer eindeutig interpretiert werden konnten. Das lässt darauf schließen, dass das Experiment noch verbessert werden kann, um mögliche Fehlerquellen zu reduzieren. Eine Möglichkeit zur Verbesserung wäre der Einbau eines Elektronendetektors, oder aber die Änderung des Projektilions. Auch längere Messzeiten wären statistisch gesehen von Vorteil. Für die Zukunft sind weitere Experimente mit veränderten Targetgasen und geänderten Projektilgeschwindigkeiten geplant.
Das HADES-Experiment (High Acceptance DiElectron Spectrometer) am SIS der GSI wurde zur Messung der e+e−-Paare dileptonischer Zerfälle der leichten Vektormesonen im Energiebereich von 1 − 2 AGeV entwickelt. Eine der Hauptanforderungen an das Spurverfolgungssystem des Spektrometers ist eine Ortsauflösung von 100 μm, die benötigt wird, um die geforderte Massenauflösung von 1 % im Bereich der !-Masse zu erzielen. Das Spurverfolgungssystem besteht aus vier Ebenen mit Vieldrahtdriftkammern (Multi-wire Drift Chambers (MDCs)) niedriger Massenbelegung (low-mass), die aus je 6 Auslesedrahtebenen bestehen. Die primäre Messgröße von Driftkammern ist die Driftzeit der entlang einer Teilchenspur generierten Elektronen der Primärionisation zum Auslesedraht. Um die gemessene Driftzeit in eine Ortskoordinate umrechnen zu können, ist eine genaue Kenntnis der Ort-Zeit-Korrelation der Driftzellen und eine präzise Kalibrierung der gemessenen Zeiten nötig. Im Rahmen dieser Arbeit wurde eine neue Methode zur Bestimmung der Kalibrierungsparameter der Driftzeiten mittels der Einkoppelung eines externen elektrischen Pulses auf die Drahtebenen der Driftkammern entwickelt und mit der herkömmlichen Methode der Kalibrierung verglichen. Zur Kalibrierung wurden elektrische Pulse durch die Hochspannungsverteilung der Driftkammern auf die Potentialdrahtebenen geleitet und somit Signale auf die Signaldrähte induziert. Die Ausbreitungsgeschwindigkeit der Signale auf den Drähten, die zur Berücksichtigung der Laufzeiten benötigt wird, wurde experimentell bestimmt. Die Genauigkeit der Methode zur Bestimmung der Kalibrierungsparameter übertrifft die Auflösung der Driftzeitmessung der Driftkammern. Die Kalibrierung der Driftzeiten benötigt nur wenig Rechen- und Zeitaufwand und stellt die Kalibrierungsparameter in gleich hoher Präzision für alle Driftzellen zur Verfügung. Die Qualität der Kalibrierung wird im Gegensatz zur herkömmlichen Methode prinzipbedingt nicht durch Fluktuationen der Startzeit des jeweiligen Stoßereignisses und die Flugzeit der dabei emittierten Teilchen zu den Driftzellen, sowie des elektronischen Rauschens beeinflusst. Die Qualität der Kalibrierung konnte gegenüber der herkömmlichen Methode signifikant verbessert werden. Die Auswirkung der Kalibrierungsparameter auf die Spurrekonstruktion wurde untersucht und für die beiden Kalibrierungsmethoden verglichen. Die Ergebnisse lassen keinen eindeutigen Schluss auf die Auswirkung der Fehler in der Kalibrierung auf die Qualität der Spurrekonstruktion zu, da die Ergebnisse der Spurrekonstruktion von anderen Effekten dominiert werden.
Im Rahmen dieser Arbeit wurde der am Frankfurter Institut für Kernphysik verwendete Aufbau zum Test der Front End Elektronik des ALICE Übergangsstrahlungsdetektors fertig gestellt und in Betrieb genommen. Die dazu benötigte Hard- und Software wurde auf entsprechenden Computersystemen installiert und für einen möglichst benutzerfreundlichen Ablauf der FEE-Tests angepasst, modifiziert und ergänzt.
In dieser Arbeit wurde der Aufbau und die Funktionsweise der ALICE TRD Ausleseelektronik beschrieben. Es wurden die einzelnen Testprozeduren, und darüber hinaus wie diese Prozeduren ein Höchstmaß an Funktionalität der FEE gewährleisten, diskutiert. Es wurde weiterhin diskutiert welche qualitativen und quantitativen Kriterien angewendet wurden um eine maximale Zuverlässigkeit der FEE zu garantieren. Die Grundlagen und die Funktionalität des Pulser-Testes wurden dabei besonders beleuchtet.
Die Hauptaufgabe, die mit dieser Diplomarbeit erfüllt werden sollte, stellt die Entwicklung einer graphischen Benutzeroberfläche dar, die alle test-relevanten Informationen zusammenfasst und aufbereitet. Die ALICE TRD Supermodule II bis V wurden über Skripte von der Kommandozeile aus getestet. Mit dem Supermodul VI wurde der Übergang zu diesem PVSS II - basierten graphischen Benutzerinterface vollzogen, so das es nun möglich ist die FEE der Auslesekammern für die Supermodule VII bis XVIII, also mindestens 720 Testdurchläufe, über diese Schnittstelle zu testen.
Die Weiterentwicklung, Verbesserung und Anpassung des graphischen Benutzerinterfaces an die Bedürfnisse des Testers ergibt sich dementsprechend als eine der sich an diese Arbeit anschließenden Aufgaben. Des Weiteren zählen zu diesen Aufgaben die Erweiterung der Tests um neue Komponenten und die Verbesserung der Datenarchivierung. Neben diesen Änderungen am Testsystem stellt sich die Aufgabe, ein möglichst stabiles und zuverlässiges Testsystem aufrecht zu erhalten, um immer einen gleichbleibenden, hohen Qualitätsstandart in vordefinierten Zeitrahmen liefern zu können.
Gegenstand dieser Arbeit ist die Entwicklung, der Aufbau und die Charakterisierung sowie Messung einer anwendungsspezifischen integrierten Schaltung (engl.: Application Specific Integrated Circuit, ASIC). Sie dient der Auslese der im elektromagnetischen Kalorimeter des PANDA-Experiments eingesetzten Lawinenfotodioden. Jeder Auslesekanal beinhaltet in der Eingangsstufe einen ladungsempfindlichen Vorverstärker, gefolgt von einem Pulsformer sowie zwei Ausgangstreibern. Am Beginn der Entwicklung steht die Machbarkeitsstudie einer integrierten Ausleseelektronik, welche die anspruchsvollen Anforderungen des PANDA-Experiments erfüllt. Aus rauschtheoretischen Untersuchungen resultieren erste Entwurfsparameter für die Schaltung, die mit Hilfe umfangreicher Simulationen verbessert und ergänzt werden. Die technische Umsetzung der Schaltung erfolgt in einem 0,35 Micrometer-CMOS-Prozess der Firma Austria Mikrosysteme. Die Charakterisierung der integrierten Ausleseelektronik ergibt bei einer Umgebungstemperatur von T = - 20° C eine Shapingzeit des Signalpulses von tr = (124 ± 2) ns. Mit dem äquivalenten Rauschwert von ENC = (4456 ± 35) e- und einer maximal möglichen Eingangsladung von 7,84 pC folgt ein dynamischer Bereich von über 10 000. Der ratenunabhängige Leistungsbedarf eines einzelnen Auslesekanals beträgt P = (52, 4 ± 0, 2)mW. Damit erfüllt der in dieser Arbeit beschriebene ASIC Prototyp alle Anforderungen, die vom Experiment an die Ausleseelektronik gestellt werden.
Fachspezifischer Anhang zur SPoL (Teil III): Studienfach Physik in den Studiengängen L2 und L5
(2008)
Die Analyse der Ionisation des in Zürich durchgeführten Ionisationsexperimentes an Helium hat in erster Line gezeigt, wie exakt die optischen Eigenschaften der lambda/4 Platte bekannt sein müssen, um die richtigen Schlussfolgerungen aus den experimentellen Daten zu ziehen. Insbesondere, dass bei der Bandbreite des verwendeten Lichtes, rein zirkulare Laserpulse mit den heutzutage zu Verfügung stehenden Verzögerungsplatten nicht erzeugt werden können und wie gravierend sich eine Restelliptizität von wenigen Prozent auf die Impulsverteilung auswirkt. Wird dieses Wissen jedoch in die Analyse mit eingebracht, so erlaubt der präsentierte Ansatz eine Bestimmung des Ionisationszeitpunktes mit der Genauigkeit in der Größenordnung von 10 Prozent der Dauer einer Laserperiode. Diese Analyse erlaubt in Zukunft in Experimenten mit zirkular polarisierter Laserstrahlung beim Auftreten von Mehrfachionisation die Bestimmung der Zeitintervalle zwischen den einzelnen Ionisatiosereignissen. Des weiteren ermöglicht die vorgestellte Analyse aus den gemessenen Impulsvereilungen eine CEO-Phasenbeestimmung durzuführen, bei welcher die Anzahl der benötigten Ionisationsvorgänge geringer ist als bei der Benutzung eines Stereo-ATI. In Verbindung mit Detektorsystemen, welche in der Lage sind die Winkelverteilungen für Ereignisse zu bestimmen, bei denen sehr viele Ionisationsereignisse auf einmal auftreten, kann die Anzahl der Laserschüsse, die für die Bestimmung der CEO-Phase benötigt werden, stark verringert werden. Das Pump-and-Probe-Experiment liefert trotz der Problematik, welche sich in diesem Fall bei der Anwendung des Pump-and-Probe-Schemas auf Grund der zur Verfügung stehenden Wellenlänge ergeben einen Hinweis auf die Zeitdauer, die zur Isomerisation benötigt wird. Bei den gewählten Intensitäten ist nach einem Zeitraum zwischen 30 und 60 fs zwischen dem Pump- und Probe-Puls ein Anstieg der Anzahl der in drei Teilchen fragmentierten Moleküle zu beobachten, welche einer Vinylidenkonfiguration entstammen. Der relative Anstieg der Vinylidenpopulation beträgt zehn Prozent. Der Grund, dass kein Anstieg der Vinyliden Population von null an zu beobachten ist, ist wahrscheinlich dadurch begründet, dass die Isomerisation schon an den Flanken des Pump-Pulses stattfindet und schon vor Erreichen der maximalen Intensität des Pump-Pulses abgeschlossen ist. Der Analoge Prozess könnte an den Flanken des Probe-Pulses stattfinden. Dies muss durch eine separate theoretische Behandlung erörtert werden.
Diese Arbeit beschreibt wie mit physikalischen Methoden die Glukosekonzentration gemessen werden kann. Die Infrarot-Spektroskopie bietet eine Möglichkeit da die Energie der meisten Molekülschwingungen Photonenenergien im infraroten Spektralbereich entspricht. Hier zeigen Glukosemoleküle charakteristische Absorptionsspektren, die mit spektroskopischen Methoden gemessen werden. Um nicht invasiv zu messen, wurde eine photoakustische Messmethode gewählt. Die Grundidee ist, dass die durch Licht angeregten Moleküle ihre Anregungsenergie teilweise in Form von Wärme abgeben. Da die anregende Strahlung intensitätsmoduliert ist, wird auch die Wärmeentwicklung periodisch verlaufen wodurch periodische Volumenänderungen hervorgerufen werden, die eine Druckwelle erzeugen, die sich durch empfindliche Mikrofone oder Schallwandler erfassen lässt. So kann im MIR auf Grund der hohen Spezifizität, der Glukosegehalt mit sehr hoher Genauigkeit bestimmt werden. Die Wellenlänge der Glukoseabsorptionsbanden im MIR Bereich sind im Wesentlichen gekoppelte C=O Streck- und O–H Biegeschwingungen. Im MIR-Bereich zeigen Spektren zwischen 8,3µm bis 11,1µm fünf glukoserelevanten Banden. Der photoakustische Effekt wird durch die Rosencwaig-Gersho Theorie beschrieben. Die Absorption des Lichtes in der Probe bewirkt eine Temperaturerhöhung, die als Wärme an Umgebung abgegeben wird. Da das eingestrahlte Licht gepulst ist, wird auch die Wärme periodisch abgegeben. Durch die Absorption eines Laserpulses in der Haut entsteht ein Temperaturgradient, die abhängig vom Absorptionskoeffizienten und der Glukosekonzentration ist. Der führt zu einer Diffusion von Wärme im Absorptionsvolumen. Die Hautoberfläche und damit eine dünne Luftschicht über der Hautoberfläche werden durch die Diffusionswärme periodisch mit der Modulationsfrequenz der Laser aufgeheizt, was als Druckschwankungen in Messkammer mit Mikrofon detektiert wird. Im Mitteinfrarot geben Quantenkaskadenlaser die beste Lichtquelle, wegen ihre gute Strahlqualität und hohe optische Leistung. Die verwendete photoakustische(PA) Resonanzzelle ist nach dem Prinzip des Helmholtz-Resonators konzipiert. Der Vorteil des Verstärkungsverhaltens einer resonanten PA-Zelle kann unter Umständen durch Verwendung Volumenreduzierten und mit empfindlichen Mikrofonen ausgestatteten nicht-resonanten PA-Zelle erreicht werde. Zum Erfassung der PA Signale wird eine Kombination aus einen Analog-Digital Wandlerkarte verwendet, die eine gemeinsame Zeitbasis mit der synchronen Lasersteuerung und der Datenerfassung liefert und phasenechte Fourieranalyse der photoakustischen Signale ermöglicht. Es wurde ein Modellsystem entwickelt um photoakustischen Glukosemessungen in vitro zu testen. Dieses „Phantommodell“ besteht aus einer dünnen Polymermembran befestigt in eine Gefäß von nur paar ml Volumen die mit verschiedenen Glukosekonzentrationen gefüllt wurde. Die modulierte Laserstrahlung passiert die Messzelle und dringt durch die Folie in die wässerige Glukoselösung ein. Das Folienmaterial und Dicke wurde so gewählt, dass keineAbsorption im verwendeten MIR-Bereich entsteht. Als Lösung für die jeweiligen Glukosekonzentrationen wurde ein Wasser-Albumin Gemisch verwendet mit einen 10%igen Albuminanteil, die verwendet wurde, um den Proteingehalt der Haut zu imitieren und zu zeigen, dass Eiweiß keinen Störeinfluss im Glukosefingerprintbereich hat. Messungen wurden bei steigenden und fallenden Glukosekonzentration durchgeführt damit gezeigt könnte, dass das Messsignal in der PA- Zelle nicht von der Lufterwärmung in der Zelle stammt, sondern vom PA-Signale der Glukose. Die Glukoseschwankungen in der extrazellulären Flüssigkeit der Epidermis spiegeln die Glukoseschwankungen im Blut gut wider, bei einer Messung am Arm entsteht eine Verzögerung von paar Minuten. Im Daumenballenbereich findet aufgrund der guten Durchblutung ein schneller Austausch der Glukosekonzentration der von uns gemessenen interstitiellen Flüssigkeit mit der Blutzuckerkonzentration statt. Deshalb wurden die in-vivo Messungen am Daumenballen durchgeführt. Das Stratum spinosum ist für uns von Bedeutung, da dies das interstitielle Wasser enthält, in dem der Glukosegehalt mit dem Glukosegehalt im Blut gut übereinstimmt. Die photoakustische Messmethode wird nicht-invasiv durchgeführt. Probanden wird Zucker verabreichet und danach in Abständen von 5 Minuten der Blutzucker konventionell bestimmt und gleichzeitig mittels der photoakustischen Messung am Daumenballen durchgeführt. Mit diesen Daten kann die Korrelation zwischen beiden Methoden bestimmt werden. In vielen in vivo Messreihen zeigen sich bereits in direkter Korrelation zu invasiv genommenen Blutzuckerwerten Korrelationskoeffizienten bis zu R=0,8 und eine damit deutliche Evidenz für einen glukoserelevanten Effekt. Trotz der versprechenden Ergebnisse wird deutlich, dass weitere Entwicklungen notwendig sind, damit das System zu einer direkten Konkurrenz zu der vorhandenen invasiven Meßsystemen werden kann.