diplomthesis
Refine
Year of publication
- 1999 (16) (remove)
Document Type
- diplomthesis (16) (remove)
Has Fulltext
- yes (16)
Is part of the Bibliography
- no (16)
Keywords
- Beschaffung (1)
- Data Mining (1)
- Discourse analysis (1)
- Diskursanalyse (1)
- Finanzanalyse (1)
- India (1)
- Indien (1)
- Kulturtheorie (1)
- Medien (1)
- Neuronales Netz (1)
Institute
- Physik (10)
- Informatik (2)
- Erziehungswissenschaften (1)
- Geowissenschaften (1)
- Mathematik (1)
- Wirtschaftswissenschaften (1)
In der vorliegenden Arbeit wurde ein chirales SU(3)-Modell auf verschiedene Erscheinungsformen endlicher Kernmaterie angewendet. Das Modell basiert auf chiraler Symmetrie in nichtlinearer Realisierung. Die Symmetrie muss spontan gebrochen werden um die beobachtete Massendifferenz zwischen skalaren und pseudoskalaren Mesonen reproduzieren zu können. Um den pseudoskalaren Mesonen eine endliche Masse zu geben ist eine explizite Brechung der chiralen Symmetrie nötig.
Im heutigen Zahlungsverkehr übernehmen in zunehmendem Maße Zahlungen mit Kreditkarten eine entscheidende Rolle. Entsprechend der Verbreitung dieser Art des Zahlungsverkehrs nimmt ebenfalls der Mißbrauch mit diesem bargeldlosen Zahlungsmittel zu. Um die Verluste, die bei dem Kreditkarteninstitut auf diese Weise entstehen, so weit wie möglich einzudämmen, wird versucht, Mißbrauchstransaktionen bei der Autorisierung der Zahlungsaufforderung zu erkennen. Ziel dieser Diplomarbeit ist es zu bestimmen, in wie weit es möglich ist, illegale Transaktionen aus der Menge von Autorisierungsanfragen mit Hilfe adaptiver Algorithmen aufzudecken. Dabei sollen sowohl Methoden aus dem Bereich des Data-Mining, als auch aus den Bereichen der neuronalen Netze benutzt werden. Erschwerend bei der Mißbrauchsanalyse kommt hinzu, daß die Beurteilung der einzelnen Transaktionen in Sekundenbruchteilen abgeschlossen sein muß, um die hohe Anzahl an Autorisierungsanfragen verarbeiten zu können und den Kundenservice auf Seiten des Benutzers und des Händlers auf diese Weise zu optimieren. Weiter handelt es sich bei einem Großteil der bei der Analyse zu Verfügung stehenden Datensätze um symbolische Daten, also alpha-numerisch kodierte Werte, die stellvertretend für verschiedene Eigenschaften verwendet werden. Nur wenige der Transaktionsdaten sind analoger Natur, weisen also eine Linearität auf, die es erlaubt, "Nachbarschaften" zwischen den Daten bestimmen zu können. Damit scheidet eine reine Analyse auf Basis von neuronalen Netzwerken aus. Diese Problematik führte unter anderem zu dem verfolgten Ansatz. Als Grundlage der Analyse dienen bekannte Mißbrauchstransaktionen aus einem Zeitintervall von ungefähr einem Jahr, die jedoch aufgrund der hohen Anzahl nicht komplett als solche mit den eingehenden Transaktionen verglichen werden können, da ein sequentieller Vergleich zu viel Zeit in Anspruch nähme. Im übrigen würde durch einen einfachen Vergleich nur der schon bekannte Mißbrauch erkannt werden; eine Abstraktion der Erkenntnisse aus den Mißbrauchserfahrungen ist nicht möglich. Aus diesem Grund werden diese Mißbrauchstransaktionen mit Hilfe von Methoden aus dem Bereich des Data-Mining verallgemeinert und damit auf ein Minimum, soweit es die Verläßlichkeit dieser Datensätze zuläßt, reduziert. Desweiteren schließt sich eine Analyse der zu diesem Zeitpunkt noch nicht betrachteten analogen Daten an, um die maximale, enthaltene Information aus den Transaktionsdaten zu beziehen. Dafür werden moderne Methoden aus dem Bereich der neuronalen Netzwerke, sogenannte radiale Basisfunktionsnetze, verwendet. Da eine Mißbrauchsanalyse ohne eine entsprechende Profilanalyse unvollständig wäre, wurde abschließend mit den vorhanden Mitteln auf den zugrunde liegenden Daten in Anlehnung an die bisherige Methodik eine solche Profilauswertung und zeitabhängige Analyse realisiert. Mit dem so implementierten Modell wurde versucht, auf allgemeine Art und Weise, Verhaltens- beziehungsweise Transaktionsmuster einzuordnen und mit bei der Mißbrauchsentscheidung einfließen zu lassen. Aus den vorgestellten Analyseverfahren wurden verschiedene Klassifizierungsmodelle entwickelt, die zu guten Ergebnissen auf den Simulationsdaten führen. Es kann gezeigt werden, daß die Mißbrauchserkennung durch eine kombinierte Anwendung aus symbolischer und analoger Auswertung bestmöglich durchzuführen ist.
Die vorliegende Arbeit befaßt sich mit der Planung und dem Aufbau der mehrkanaligen Strahlführung im Anschluß an den VE-RFQ Beschleuniger der Frankfurter EZR-VE-RFQ Anlage. Die Umsetzung der mit Hilfe von Simulationen gefundenen Strahlführung war ebenso Gegenstand dieser Arbeit wie erste Tests der neuen Anlagenkomponenten. Mit der Fertigstellung dieses Teilabschnitts steht jetzt der Energiebereich von 100–200 keV/u ergänzt durch den niederenergetischen Bereich von 5–60 kV für Experimente mit mehrfach geladenen Ionen in zwei von drei geplanten Strahlkanälen zur Verfügung. Die Kombination, bestehend aus EZR-Ionenquelle und VE-RFQBeschleuniger, erlaubt einerseits atomphysikalische Experimente mit speziell präparierten Ionenstrahlen und verschiedenen Ionensorten. Andererseits liefert die verwendete Ionenquelle hohe Intensitäten an mehrfach geladenen Ionen, die für spezielle Anwendungen der Materialforschung benötigt werden. Diese Arbeit gliedert sich in drei Abschnitte, im ersten Schritt wurde die HF-Einkopplung des Beschleunigers modifiziert und der Ionenstrahl im transversalen Phasenraum charakterisiert. Dabei hat sich gezeigt, daß die experimentell gefundene Geometrie der Einkoppelschleife im Betrieb nur in einem sehr geringen Bereich verfahren werden muß, um optimale Anpassung über den gesamten Frequenzbereich zu erreichen. Auf Basis der gemessenen Emittanzen erfolgte die Planung der Strahlführung mit Hilfe von Simulationsprogrammen im zweiten Schritt. Das Ziel war der Aufbau von drei Strahlkanälen mit unterschiedlichen Anforderungen an das Profil des Ionenstrahls. Im letzten Schritt stand die Umsetzung der geplanten Strahlführung. Verbunden mit diesem Schritt war die Konstruktion und Vermessung der ionenoptischen Elemente und der Aufbau der Strahlführung unter Verwendung von vorhandenen magnetischen Quadrupolen und Ablenkmagneten. Abschließend wurde die Funktionsfähigkeit des vorgestellten Aufbaus als Bestandteil der kompletten EZR-VE-RFQ-Anlage im Betrieb getestet. Im Rahmen des Aufbaus und der ersten Experimente waren diverse technische Fragestellungen aus dem Bereich der Beschleunigerphysik, über die Ionenoptik bis hin zur Ionenquellenphysik zu bearbeiten und Probleme zu lösen. Die ersten Tests der einzelnen ionenoptischen Elemente und der Betrieb der gesamten Strahlführung haben gezeigt, daß die gestellten Aufgaben erfüllt werden. Nach der Fertigstellung des Grundaufbaus der Strahlführung für die nachbeschleunigten Ionen durch den Aufbau des noch fehlenden 90°-Kanals und den Aufbau einer Strahldiagnose, muß im nächsten Schritt die Optimierung der einzelnen Strahlkanäle erfolgen. Das Ziel liegt dabei in der Verbesserung der Transmission und der Qualität der zur Verfügung gestellten Ionenstrahlen. Damit verbunden ist auch die Charakterisierung der Ionenstrahlen in den verschiedenen Strahlzweigen. Unabhängig davon ist die Untersuchung der Injektion in den RFQ notwendig, zur Verbesserung der Anpassung des Quellenstrahls an die Akzeptanz des Beschleunigers und zur Diagnose der Ursache für die Teilchenverluste in diesem Teilabschnitt des Aufbaus.
Es wurde eine Apparatur zur Messung der Ladungszustandsverteilung von langsamen, hochgeladenen Ionen nach der Wechselwirkung in dünnen Foilen aufgebaut und angewendet. Die Ladungszustandsverteilung von Ionen mit Ladungszuständen von 1+ (H) bis 75+(Th) wurden im Geschwindigkeitsbereich von 0.2 bis 0.75 vBohr nach einer 5 nm und 10 nm dicken amorphen Kohlenstoff-Folie bestimmt. Ionen, die die (10 nm)-Folie passierten, befanden sich im wesentlichen in einem Gleichgewichtsladungszustand (1-2+), der sich grob durch das Bohr-Kriterium beschreiben läßt. Die mittleren Endladungszustände von Ionen mit Anfangsladungen >= 33+ zeigten nach der 5 nm dicken Folie eine deutliche Abweichung von diesem Gleichgewicht. Mittlere Ladungszustände bis zu 8.2+ (Th) wurden beobachtet. Es handelt sich dabei um die erste Beobachtung von Nicht-Gleichgewichtsladungszuständen langsamer Ionen nach der Transmission durch einen Festkörper. Dieses Ergebnis wird dahingehend gedeutet, daß die Zeitspanne, die zur Neutralisation und Relaxation der Ionen in der 5 nm Folie zur Verfügung steht, nicht ausreichend ist. Aus den Ergebnissen der Sekundärelektronen Ausbeute wird geschlossen, daß ein Teil der Innerschalen-Plätze bis zum Austritt aus der Folie nicht gefüllt werden konnte. Desweiteren könnte eine Verarmung des Festkörpers an Elektronen im Einschlagsbereich des hochgeladenen Ions vorliegen. Anhand der gesammelten Daten wurde ein semi-empirisches Modell zur Beschreibung des Ladungszustandes eines hochgeladenen Ions in einem Festkörper aufgestellt. Es zeigt sich, daß die Daten gut durch einen zweistufugen Füllprozess beschrieben werden können, der aus einem Aufbau einer Abschirmwolke um das Projektil, sowie der weiteren Abregung besteht. Die charakteristischen Zeiten für Aufbau und Abregung bewegen sich im Bereich von 2 fs. Nach etwa 7 fs kann von einer vollständigen Relaxation des Projektils ausgegangen werden. Die Ergebnisse dieser Arbeit zum Ladungsausgleich der hochgeladenen Ionen wurden in [37] veröffentlicht.
Als Ergebnis dieser Arbeit kann man sehen, daß es experimentiell gelungen ist, mit einem alpha-förmigen Linearresonator einen stabilen unabhängig abstimmbaren Zwei-Farben Ti:saphir Laser aufzubauen, der so in der wissenschaflichen Literatur noch nicht beschrieben ist. Eine Veröfentlichung zu der vorgelegten Arbeit [22] ist beim IEEE Journal of Quantum Electronics eingereicht worden. Die Ausgangsleistung dieses Lasers liegt bei 300 mW. Die durchgeführten Experimente lassen darauf schließen, daß der Laser die meiste Zeit nur auf einer longitudinalen Mode emittiert. Bei einem gleichzeitig möglichen Abstimmbereich von 740 nm bis 850 nm, welches ein Verhältnis von Linienbreite zu Abstimmbereich von besser als 1:250000 bedeutet. Den Beweis, daß der Laser auch bei sehr geringen Differenzfrequenzen betrieben werden kann, lieferte die direkte Messung des Schwebungssignals zwischen den beiden Lasern. Dabei muß man zugeben, daß das im Eingangszitat dieser Arbeit erwähnte Schwebungssignal nicht ohne Hilfsmittel an einer Wand zu beobachten war, sondern eine minimale Schwebung von 3 Mhz gemessen wurde. Im Vergleich zu den 3 x 10 exp 8 Mhz der einzelner Farben ist dies aber ein gutes Ergebnis. Zusätzlich wurde mit dem Ringlaser ein anderer Ansatz zur Abstimmung des Systems realisiert. Diese Anordnung hat mit 800 mW Vorteile bezüglich der Ausgangsleistung aber Nachteile in Hinblick auf Abstimmung und Linienbreite. Im theoretischen Teil konnte gezeigt werden, welche Eigenschaften ein Laser-Resonator haben muß, um stabil im Zweifarben Betrieb eingesetzt zu werden. Weiterhin konnten auch noch die dynamischen Effekte der beiden Resonatortypen mit Hilfe einer Simulation beschrieben werden. Der Laser soll in der Erzeugung von kontinuierlicher Strahlung im Thz Bereich verwendet werden. Dabei sollen photokonduktive Antennen, wie auch Halbleiteroberflächen als Emitter dienen. Bis zum Ende dieser Arbeit konnte der Laser aus zeitlichen Gründen nicht für diese Messungen eingesetzt werden, da es zu Verzögerungen mit den Proben, wie auch mit den Meßgeräten kam. Die Charakterisierung des Lasers aber zeigte, daß die beiden schmalbandigen Farben bei einer Differenzfrenz im Thz-Bereich (20 GHz–50THz) stabil zu realisieren sind.
The thesis in general deals with CORBA, the Common Object Request Broker Architecture. More specifically, it takes a look at the server-side, where object adapters exist to aid the developer in implementing objects and in dealing with request processing. The new Portable Object Adapter was recently added to the CORBA 2.2 standard. My task was the implementation of the POA in MICO and the examination if (a) the POA specification is sensible and (b) in which areas it improves over the old Basic Object Adapter. After introducing distributed platforms in general and CORBA in particular, the thesis' main two chapters are a detailed abstract examination ("Design") of the POA design and their relization ("Implementation"), highlighting the potential trouble spots, persistence and collocation.
Die Neue Institutionenökonomie beschäftigt sich mit der Erklärung institutioneller Gegebenheiten wie Vertrags- und Organisationsformen und versucht, eine Begründung für die Existenz von Unternehmen zu finden. Ein Bestandteil der Neuen Institutionenökonomie ist, neben der Principal- Agent- und der Property-Rights-Theorie, die hier näher zu erörternde Transaktionskostentheorie. Entstanden ist die Transaktionskostentheorie aus der Kritik an der Neoklassik, insbesondere an den dieser zugrunde liegenden Annahmen. Innerhalb der neoklassischen Theorie wird der Preismechanismus als das zentrale Instrument zur Koordination von wirtschaftlichen Aktivitäten betrachtet. Die Wirtschaftssubjekte handeln in einem Markt unter vollständiger Konkurrenz, in dem sich ohne Verursachung von Kosten ein Gleichgewichtspreis bildet. Sie verhalten sich daher als Mengenanpasser, die aufgrund dieses vorgegebenen Preises ihren Gewinn maximieren. Im Gegensatz dazu wird in der Transaktionskostentheorie davon ausgegangen, daß die Bildung des Preises bzw. die Nutzung des Marktmechanismus nicht kostenlos genutzt werden kann. Aus der Annahme der Neoklassik, daß der Preis die operativen Entscheidungen der Wirtschaftssubjekte determiniert und zu einer effizienten Allokation der Produktionsfaktoren führt,6 stellt sich weiterhin die Frage nach dem Grund für die Existenz von Unternehmungen, welche mit Hilfe der Transaktionskostentheorie beantwortet wird. Wäre der Marktmechanismus tatsächlich in der Lage alle wirtschaftlichen Aktivitäten effizient zu koordinieren, so bestünde keine Notwendigkeit für die Bildung von Institutionen. Die Entstehung von Unternehmen ist daher auf ein Versagen des Preismechanismus aufgrund von Transaktionskosten zurückzuführen....
Am Beispiel der erziehungswissenschaftlichen Diskussion über „Neue Medien“ wird in kulturvergleichender Perspektive der Versuch einer Rekonstruktion der latenten Diskursmuster der Pädagogik und ihrer Funktionen in Indien unternommen. Grundlage der Analyse ist dabei nach intensiven Literaturrecherchen und Expertengesprächen vor allem die Zeitschrift University News (herausgegeben von der Association of Indian Universities) als aktuelles Forum pädagogischer und bildungsrelevanter Themen. Unter Rekurs auf den Bildungsreport der UNESCO, Learning: The Treasure Within, der im pädagogischen Diskurs in Indien eine exponierte Position einnimmt, werden Kategorien zur Strukturierung entwickelt, die dann vor allem über zwei Dimensionen - Programmatik statt Forschung und Theorie und Technologieorientierung und Trivialisierung – analytisch aufgeschlüsselt werden. Die Interpretation greift dabei hauptsächlich auf systemtheoretische und konstruktivistische Ansätze zurück. Die abschließende Frage nach den Funktionen des Diskurses wird auf der Folie der Vaihinger’schen Philosophie des „As Ob“ verfolgt. Der dem Diskurs inhärente fiktionale Charakter wird dabei als generatives Muster im Rahmen von Ausdifferenzierungsprozessen des Erziehungssystems in Indien interpretiert.
Über die Anzahlfunktion π(x)
(1999)
Bereits Euklid wusste, dass es unendlich viele Primzahlen gibt. Euler zeigte die qualitative Aussage ¼(x) x ! 0 bei x ! 1. Legendre definierte als erster die Anzahlfunktion ¼(x) als die Anzahl aller Primzahlen · x, (x 2 R) und vermutete irrtümlicherweise, dass ¼(x) = x log(x)¡B; wobei lim x!1 B(x) = 1; 083 66 : : : ist. Gauss vermutete, dass die Funktionen ¼(x) und li(x) := lim "!0 ">0 0@ u=1¡" Z u=0 du log(u) + u=x Z u=1+" du log(u)1A asymptotisch Äquivalent sind. Tschebyschew konnte die Legendresche Vermutung widerlegen; außerdem bewies er: Wenn der Grenzwert lim x!1 ¼(x) x log(x) existiert, so muss dieser gleich 1 sein. Dank wegweisender Vorarbeiten von Riemann, gelang es im Jahr 1896 unabhängig voneinander und nahezu zeitgleich Hadamard und De La Vallee Poussin, den Primzahlsatz analytisch zu beweisen. Beide verwendeten entscheidend die Tatsache, dass die Zetafunktion ³ in der Halbebene Re(s) ¸ 1 nicht verschwindet. Die Beweise waren zuerst so lang und kompliziert, dass sie heutzutage nur noch einen historischen Wert besitzen. Es dauerte weitere 84 Jahre bis der Beweis so vereinfacht werden konnte, dass er nur wenige Seiten in Anspruch nimmt. Ein wichtiger Verdienst kommt hierbei der Arbeit von Newman aus dem Jahre 1980 zu. Lange Zeit wurde es für kaum möglich gehalten, einen Beweis des Primzahlsatzes zu finden, der ohne eine gewisse Kenntnis der komplexen Nullstellen der Zetafunktion auskommt. Und doch glückte 1948 ein solcher Beweis durch Selberg und Erdös mit elementaren Mitteln. Erwähnenswert dabei, dass der Beweis noch lange nicht einfach ist. Uns schienen die analytischen Beweise durchsichtiger zu sein. Daher haben wir in dieser Arbeit auf einen elementaren Beweis verzichtet. Der analytischen Weg zum Primzahlsatz von Newman kommt einerseits mit Integration längs endlicher Wege (und der Tatsache ³(s) 6= 0 in ¾ ¸ 1) aus, umgeht also Abschätzungen bei 1; andererseits ist er frei von Sätzen der Fourier-Analysis. Beim Beweis des Primzahlsatzes von Wolke benutzt man anstelle von ³0(s) ³(s) die Funktion ³ 1 k mit großen k. Wegen des Pols bei s=1 bringt dies bei der Integration leichte Komplikationen, hat aber den Vorteil, dass außer der Nullstellen-Freiheit keine nichttriviale Abschätzung für ³ oder ³0 erforderlich ist. Dank der elementaren Äquivalenz zwischen dem Primzahlsatz und der Konvergenz von 1Pn=1 ¹(n) n brauchte Newman nur die Konvergenz von 1Pn=1 ¹(n) n zu zeigen. Dies erreichte er mit Hilfe seines Konvergenzsatzes. Die Legendresche Formel, die auf dem Sieb des Eratosthenes basiert, erlaubt die exakte Berechnung von ¼(x), wenn alle px nicht übersteigenden Primzahlen bekannt sind. Diese prinzipielle Möglichkeit zur Ermittlung von ¼(x) ist in der Praxis natürlich stark limitiert durch die mit x rasch anwachsende Anzahl der rechts in der Legendresche Formel zu berücksichtigenden Summanden. Mit verfeinerten Siebtechniken haben verschiedene Autoren zur Legendresche Formel analoge Formeln ¼(x) ersonnen, bei denen der genannte Nachteil von Legendresche Formel sukzessive reduziert wurde. Zu erwähnen sind hier vor allem Meissel, Lehmer, sowie Lagarias, Miller und Odlyzko. Aus den Graphen von R(x)¡¼(x); li(x)¡¼(x) und x log(x) ¡¼(x) für den betrachteten Bereich x · 1018 konnten wir feststellen, dass R(x); li(x) sowie x log(x) die Anzahlfunktion Pi (x) annähern, wobei R(x) die beste Approximation für Pi(x) von allen drei ist.
Im Rahmen dieser Arbeit wurde erstmals die Realisierung eines (e,3e)- Experimentes an Helium mittels der Cold Target Recoil Ion Momentum Spectroscopy (COLTRIMS) behandelt. Dabei ging es hauptsächlich um den Aufbau, die Entwicklung, Test und die Durchführung des Experiments. Dazu wurde ein neues Kammersystem am Atomphysikkanal der Frankfurter EZR mit zweistufigem Ultraschallgasjet aufgebaut, an dem in Zukunft noch weitere COLTRIMS- Experimente stattfinden werden. In dieser Arbeit wurde eine Dreifach-Koinzidenz zwischen dem gestreuten Projektilelektron, dem einfach- oder zweifach geladenem Rückstoßion und dem langsamen Elektron verwirklicht. Sie stellt das wesentliche Ergebnis der vorliegenden Arbeit dar. Koinzident zum Streuwinkel und Energieverlust des Projektilelektrons wurden hierbei Flugzeiten und Auftrefforte rte von He1 - bzw. He2 - Ionen und von einem der ionisierten Elektronen gemessen. Anhand der durchgeführten umfangreichen Eichmessungen unter Hinzuziehung von Impuls- und Energieerhaltungssätzen lassen sich somit sämtliche Impulse der Teilchen errechnen. Somit gewinnt man Informationen über den Ionisationsprozeß. Desweiteren lassen sich multidifferentielle Wirkungsquerschnitte bestimmen, die sich mit theoretischen Modellen vergleichen lassen. Die Rückstoßionenimpulsverteilungen und die Flugzeitspektren für das He2 -Ion demonstrieren die Signifikaz der erreichten Statistik, trotz der geringen Koinzidenzrate von 17 h-1. Die Meßdaten wurden einer groben Auswertung unterzogen. Die entgültige Analyse, Ergebnisdeutung, Interpretation und Vergleich mit der Theorie fand in dieser Arbeit nicht statt. Die Projektilenergie lag bei allen Messungen bei 550 eV. Der Elektronenstrahl wurde, entgegen der vorherrschenden Meinung, mit einem Blendensystem auskollimiert. Im nächsten Schritt sollen statt mit nur einem mit zwei oder mehreren Schlitzblenden nacheinander der Elektronenstrahl auskollimiert werden, so daß die am vorderen Schlitz gestreuten Elektronen in den nachfolgenden ausgeblendet werden können. Somit verringert man die problematische Untergrundrate auf dem Elektronendetektor. Für weitere Untersuchungen werden momentan neue Spektrometerkonzepte entwickelt. Bei der Konzeption des neuen Spektrometers wird der Abstand zwischen Targetzone und Elektronendetektor größer gewählt. Dies verringert zwar den Nachweisraumwinkel für die Elektronen, aber man erreicht dadurch eine Verringerung der Untergrundselektronen. Der Verringerung des Nachweisraumwinkels kann man entgegenwirken, indem man einen großen MCP- Detektor mit 80 mm Durchmesser einsetzt. Der Eintrittsbereich des Projektilstrahls in das Rückstoßionenimpulsspektrometer sollte großzügig gewählt werden, da auf diese Art und Weise verhindert werden kann, daß der Elektronenstrahl die Potentialringe in Eintrittsbereich streift und wohlmöglich unerwünschte Sekundärelektronen erzeugt, die im Extraktionsfeld des Spektrometers auf den Elektronendetektor hin beschleunigt werden und ebenfalls für Untergrund sorgen. Eine Pulsung der Elektronenkanone über die Wehneltspannung vorzunehmen und den Puls als Start oder Trigger für die Datenaufnahme einzusetzen ist nur dann sinnvoll, wenn die Flugzeit der Elektronen um mindestens eine Größenordnung größer ist als die erreichbare Pulslänge. Nach Auskunft unserer Elektronik liegen die erreichbaren Pulslängen bei etwa 5 ns. Aufgrund der notwendigen Stabilität sowohl in der Elektronik als auch in der Kühlung des Kaltkopfes ist eine insgesamt kürzere Meßzeit erstrebenswert.