Refine
Year of publication
Document Type
- diplomthesis (209) (remove)
Language
- German (209) (remove)
Has Fulltext
- yes (209) (remove)
Is part of the Bibliography
- no (209)
Keywords
- Diskursanalyse (2)
- Soziologie (2)
- Stochastik (2)
- Stochastischer Prozess (2)
- Strahltransport (2)
- Yule-Prozess (2)
- Ablenkung <Physik> (1)
- Agentieller Realismus (1)
- Akteur-Netzwerk-Theorie (1)
- Algorithmus (1)
Institute
- Physik (101)
- Mathematik (33)
- Informatik (26)
- Gesellschaftswissenschaften (15)
- Geowissenschaften (8)
- Wirtschaftswissenschaften (8)
- Biowissenschaften (4)
- Erziehungswissenschaften (4)
- Biochemie und Chemie (3)
- Geographie (1)
"Scharfes Messer" oder "stumpfer Dolch"? : Lakatos als Instrument in den internationalen Beziehungen
(2002)
Das Anliegen dieser Diplomarbeit sollte nicht nur darin bestehen, die fehlerhafte Anwendung Lakatos‘ in den IB aufzuzeigen. Nach meiner Auffassung müssen wissenschaftstheoretische Ansätze keineswegs ein Buch mit sieben Siegeln für die IB darstellen. Die Tatsache, dass Lakatos als Instrument für die Sozialwissenschaften ungeeignet ist (vor allem zur Diskreditierung konkurrierender Theorien) sollte keineswegs dahingehend abschreckend wirken, sich innerhalb der IB weiterhin mit wissenschaftstheoretischen Grundlagen zu befassen. Die IB als wissenschaftliche Disziplin könnten meiner Ansicht nach zwei zentrale Thesen Lakatos‘ verinnerlichen. „Moment-Rationalität“ zur Bewertung von Theorien kann es nicht geben. Dies sollte gerade bei jungen Forschungsprogrammen beachtet werden, die sich noch mit einem „Ozean von Anomalien“ konfrontiert sehen. Zudem sollte der vorschnelle Drang zur Falsifikation aufgegeben werden. Die Feststellung Lakatos, warum Falsifikation um jeden Preis unser Ziel sein sollte, trifft hier den Nagel auf den Kopf. Dieser Aspekt führt zu einer meiner zentralen Thesen. Ein Grundübel der IB liegt darin, dass allzu häufig, der Blick auf wesentliche empirische Probleme vergessen wird. Aufgrund dieser Vorgehensweise begeht der kritische Politikwissenschaftler jedoch einen Kategorien-Irrtum. Nicht die Lösung relevanter Probleme, wie dies Laudan fordert, sondern der falsche Stolz, die eigene Theorie behalte recht oder sei wahr, steht häufig im Vordergrund. Taucht nun ein zu erklärendes soziales Phänomen (beispielsweise der Demokratische Frieden oder das Ende des Ost-West-Konflikts) auf, wird weniger versucht, dieses sich stellende Problem zu lösen, als die selbst vertretene Theorie zu retten bzw. zu bestätigen. Dieses Vorgehen führt zu inter-paradigmatischen Grabenkämpfen, die ohne jeden Erkenntnisgewinn sind. Deshalb kann eine entsprechende Selbstreflexion der Disziplin IB, wie sie mit der Debatte zwischen Rationalisten versus Reflexivisten begonnen hat, nichts schaden. Die Gefahr besteht in solchen an die Wurzel greifenden Debatten darin, dass die Disziplin vollkommen zersplittern kann. Dieses Risiko muss die IB dennoch eingehen, da in der jüngsten Vergangenheit häufig der Blick für das Wesentliche verlorengegangen ist. Damit ist vor allem der Blick für die Probleme gemeint. Der wissenschaftstheoretische Ansatz Laudans, der mit einer gesunden Dosis Pragmatismus versehen ist, könnte hierfür ein geeignetes Hilfsmittel sein. Laudans Verwerfen der Wahrheit als kognitives Ziel verbunden mit seinem Festhalten am Rationalitätsbegriff erscheint mir als Strategie für die IB von Vorteil. Laudans Theorie verlangt nicht nach methodischen Standards im Lakatosschen Sinne, die für die Sozialwissenschaften unerfüllbar sind. Die Vorstellung Kuhns, wissenschaftliche Forschung verlaufe infolge von Paradigmenwechseln, die voneinander inkommensurabel sind, bietet für Politikwissenschaftler eher ein Alibi, nicht mehr miteinander reden zu müssen. Der erkenntnistheoretische Anarchismus Feyerabends ist in vielen Aspekten vertretbar. Gerade Feyerabends Ablehnung des positivistischen Erklärungsideals, es gebe eine universelle ahistorische wissenschaftliche Methode, ist zu teilen. Seine Konsequenz, jegliche Form methodischer Regeln abzulehnen, erscheint mir zu radikal. Eine ebenso radikale Konsequenz wie Feyerabend zieht Rorty aus seiner Schlussfolgerung, dass Theorien nicht rational überprüft werden können. Rorty verfällt meiner Ansicht nach in einen unbefriedigenden Relativismus, wenn er die Suche nach Erkenntnis nur noch auf den Bereich der Konversation beschränkt. Die Funktionsweise einer großen Konversation, in der die Philosophie eine Stimme unter vielen Experten der jeweiligen Fakultäten besitzt, leuchtet mir wenig ein....
Im Rahmen dieser Arbeit wird der aktuelle Stand auf dem Gebiet des Lokalen Lovász Lemmas (LLL) beschrieben und ein Überblick über die Arbeiten zu konstruktiven Beweisen und Anwendungen gegeben. Ausgehend von Jószef Becks Arbeit zu einer algorithmischen Herangehensweise, haben sich in den letzten Jahren im Umfeld von Moser und Tardos und ihren Arbeiten zu einem konstruktiven Beweis des LLL eine erneute starke Beschäftigung mit dem Thema und eine Fülle von Verbesserungen entwickelt.
In Kapitel 1 wird als Motivation eine kurze Einführung in die probabilistische Methode gegeben. Mit der First- und Second Moment Method werden zwei einfache Vorgehensweisen vorgestellt, die die Grundidee dieses Beweisprinzips klar werden lassen. Von Paul Erdős eröffnet, beschreibt es Wege, Existenzbeweise in nicht-stochastischen Teilgebieten der Mathematik mithilfe stochastischer Überlegungen zu führen. Das Lokale Lemma als eine solche Überlegung entstammt dieser Idee.
In Kapitel 2 werden verschiedene Formen des LLL vorgestellt und bewiesen, außerdem wird anhand einiger Anwendungsbeispiele die Vorgehensweise bei der Verwendung des LLL veranschaulicht.
In Kapitel 3 werden algorithmische Herangehensweisen beschrieben, die geeignet sind, von der (mithilfe des LLL gezeigten) Existenz gewisser Objekte zur tatsächlichen Konstruktion derselben zu gelangen.
In Kapitel 4 wird anhand von Beispielen aus dem reichen Schatz neuerer Veröffentlichungen gezeigt, welche Bewegung nach der Arbeit von Moser und Tardos entstanden ist. Dabei beleuchtet die Arbeit nicht nur einen anwendungsorientierten Beitrag von Haeupler, Saha und Srinivasan, sondern auch einen Beitrag Terence Taos, der die Beweistechnik Mosers aus einem anderen Blickwinkel beleuchtet.
In dieser Arbeit wurden Untersuchungen zur Einstellung und Analyse des Sauerstoffgehalts an YBa2Cu3O6+x-Dünnfilmen durchgeführt. Zur Analyse des Sauerstoffgehalts wurde ein optisches Verfahren angewendet. Durch Messung der Transmission un der Reflektion in einem Spektralbereich von 2000nm bis 3000nm wird mit Hilfe des im Rahmen dieser Arbeit erstellten Markov-Modells die optische Leitfähigkeit bestimmt. Aus den gewonnen Werten der optischen Leitfähigkeit kann so auf den Sauerstoffgehalt in YBa2Cu3O6+x geschlossen werden.
Das größte Problem bei der Erstellung von MR-Anwendungen besteht darin, dass sie meistens durch Programmierung erstellt werden. Daher muss ein Autor spezielles Fachwissen über MR-Technologie und zumindest allgemeine Programmierkenntnisse mitbringen, um eine MR-Anwendung erstellen zu können. Dieser Erstellungsprozess soll mit Hilfe von MR-Autorensystemen, die derzeit auf dem Markt existieren und in der Forschung entwickelt werden, vereinfacht werden. Dies war ein Grund, warum diese Arbeit sich zum Ziel erklärte, zu überprüfen, inwieweit die Erstellung von MRAnwendungen durch Einsatz von MR-Autorensystemen vereinfacht wird. Ein weiteres Hauptziel war die Erstellung einer repräsentativen MR-Anwendung, die in dieser Arbeit als MR-Referenzanwendung bezeichnet wird. Sie sollte vor allem bei weiteren Entwicklungen als Vorlage dienen können und auf Basis von standardisierten Vorgehensmodellen, wie das Wasserfallmodell, erstellt werden. Ganz wichtig war es noch im Rahmen dieser Arbeit zu bestätigen, dass standardisierte Vorgehensmodelle auf MR-Anwendungen übertragbar sind. Um diese Ziele zu erreichen, sind in dieser Arbeit viele Schritte befolgt worden, die jeweils als Teilziele betrachtet werden können. Die MR-Referenzanwendung , die im Rahmen dieser Arbeit erstellt wurde, sollte mit Hilfe eines MR-Autorensystems umgesetzt werden. Um das richtige MRAutorensystem dafür auszusuchen, wurden im Rahmen einer Analyse fakultative und obligatorische Anforderungen an MR-Autorensysteme definiert, worin auch Funktionen identifiziert wurden, die ein solches System bereitstellen sollte. Das Anbieten einer Vorschau ist ein Beispiel für diese Funktionen, die bei der Erstellung von MR-Anwendungen eine essentielle Rolle spielen können. Die obligatorischen Anforderungen sind welche, die jedes Softwaresystem erfüllen soll, während die fakultativen das Ziel der Verbesserung von Autorensystemen verfolgen. Mit Hilfe der Analyse wurde ein Vergleich zwischen bekannten MR-Autorensystemen gezogen, dessen Ergebnis AMIRE als ein für die Ziele dieser Arbeit geeignetes MR-Autorensystem identifizierte. Für die MR-Referenzanwendung , die ähnliche Funktionen aufweisen sollte wie andere typische MR-Anwendungen wurden Funktionen, Anwendungsfälle und Design der Oberfläche spezifiziert. Diese Spezifikation wurde unabhängig von dem ausgesuchten Autorensystem durchgeführt, um darin analog zur Software-Technik das Augenmerk auf fachliche und nicht auf technische Aspekte zu legen. Um ans Ziel zu gelangen, wurde die MR-Referenzanwendung durch AMIRE realisiert, jedoch musste zuvor ihre Spezifikation auf dieses MR-Autorensystem überführt werden. Bei der Überführung wurde die Realisierung aus technischer Sicht betrachtet, das heißt es wurden verschiedene Vorbereitungen, wie die Auswahl der benötigten Komponenten, die Planung der Anwendungslogik und die Aufteilung der Anwendung in verschiedenen Zuständen, durchgeführt. Nach der gelungenen Realisierung und beispielhaften Dokumentation der MRReferenzanwendung konnte die Arbeit bewertet werden, worin die erzielten Resultate den Zielen der Arbeit gegenübergestellt wurden. Die Ergebnisse bestätigen, dass mit AMIRE die Entwicklung einer MR-Anwendung ohne Spezialwissen möglich ist und dass diese Arbeit alle ihrer Ziele innerhalb des festgelegten Zeitrahmens erreicht hat.
In der vorliegenden Arbeit wurden die Signalformen eines großvolumigen Germanium- Detektors analysiert, mit dem Ziel, den primären Wechselwirkungsort des Photons im Detektor zu bestimmen. Die experimentellen Voraussetzungen dazu bestehen erst seit der Entwicklung schneller Analog-Digital-Wandler, mit denen man in der Lage ist, Detektorsignale direkt nach dem Vorverstärker zu digitalisieren und somit einer genauen Analyse zu unterziehen. Im experimentellen Teil der Arbeit wurden dazu die von einem großvolumigen p-Typ HPGe-Detektor der "koaxial einseitig geschlossenen" Bauart gelieferten Signale abgetastet und digitalisiert. Synchron dazu wurde die Energie mit Analogelektronik gemessen. Die Messungen wurden für verschiedene Energien in Abhängigkeit vom Auftreffort des g-Quants auf dem Detektor durchgeführt. Dabei wurde der Detektor mit g- Quellen im Energiebereich bis 700keV an verschiedenen Positionen kollimiert bestrahlt. Zu den Messungen wurden Simulationsrechnungen durchgeführt, die sich in zwei Schritte gliederten. Im ersten Schritt wurden mittels des Monte-Carlo-Simulationsprogramms GEANT die Wechselwirkungsorte und die dort deponierten Energien eines g-Quants in einem Germanium-Detektor ermittelt. Im zweiten Schritt wurden daraus, unter Berücksichtigung der Detektorgeometrie und des dadurch vorgegebenen elektrischen Feldes, die Pulsformen berechnet. Aus der Anpassung der Rechnungen an die experimentellen Daten konnte über die Variation des einzigen freien Parameters der Ladungsträgerkonzentration, eine sehr gute Übereinstimmung der Anstiegszeitenverteilungen erzielt werden. Die Ladungsträgerkonzentration ließ sich damit mit einer Genauigkeit von 33% bestimmen. Durch eine Analyse der gemessenen digitalisierten Pulsformen konnte der Einstrahlort mit einer Wahrscheinlichkeit von 75,20% bestimmt werden. Dazu ist nur die Messung zweier Zeiten, der Zeit zwischen 10% und 30% der Pulshöhe und der Zeit zwischen 10% und 90% der Pulshöhe, notwendig. Die Ortsauflösung variierte dabei zwischen 4,1mm und 7,5mm. Mit Hilfe der Simulation konnten die Detektorbereiche identifiziert werden, für die eine eindeutige Zuordnung der Pulse zum Einstrahlort gelingt. Darauf aufbauend bietet die Simulation die Möglichkeit, neue Detektorgeometrien im Hinblick auf ihre Eigenschaften zur Bestimmung des Einstrahlortes zu entwickeln. Durch die Bestimmung des Einstrahlortes eines g-Quants auf dem Detektor läßt sich eine Dopplerkorrektur bei der Energiemessung von im Flug emittierten g-Quanten durchführen, die in einer deutlich verbesserten Energieauflösung resultiert.
Im heutigen Zahlungsverkehr übernehmen in zunehmendem Maße Zahlungen mit Kreditkarten eine entscheidende Rolle. Entsprechend der Verbreitung dieser Art des Zahlungsverkehrs nimmt ebenfalls der Mißbrauch mit diesem bargeldlosen Zahlungsmittel zu. Um die Verluste, die bei dem Kreditkarteninstitut auf diese Weise entstehen, so weit wie möglich einzudämmen, wird versucht, Mißbrauchstransaktionen bei der Autorisierung der Zahlungsaufforderung zu erkennen. Ziel dieser Diplomarbeit ist es zu bestimmen, in wie weit es möglich ist, illegale Transaktionen aus der Menge von Autorisierungsanfragen mit Hilfe adaptiver Algorithmen aufzudecken. Dabei sollen sowohl Methoden aus dem Bereich des Data-Mining, als auch aus den Bereichen der neuronalen Netze benutzt werden. Erschwerend bei der Mißbrauchsanalyse kommt hinzu, daß die Beurteilung der einzelnen Transaktionen in Sekundenbruchteilen abgeschlossen sein muß, um die hohe Anzahl an Autorisierungsanfragen verarbeiten zu können und den Kundenservice auf Seiten des Benutzers und des Händlers auf diese Weise zu optimieren. Weiter handelt es sich bei einem Großteil der bei der Analyse zu Verfügung stehenden Datensätze um symbolische Daten, also alpha-numerisch kodierte Werte, die stellvertretend für verschiedene Eigenschaften verwendet werden. Nur wenige der Transaktionsdaten sind analoger Natur, weisen also eine Linearität auf, die es erlaubt, "Nachbarschaften" zwischen den Daten bestimmen zu können. Damit scheidet eine reine Analyse auf Basis von neuronalen Netzwerken aus. Diese Problematik führte unter anderem zu dem verfolgten Ansatz. Als Grundlage der Analyse dienen bekannte Mißbrauchstransaktionen aus einem Zeitintervall von ungefähr einem Jahr, die jedoch aufgrund der hohen Anzahl nicht komplett als solche mit den eingehenden Transaktionen verglichen werden können, da ein sequentieller Vergleich zu viel Zeit in Anspruch nähme. Im übrigen würde durch einen einfachen Vergleich nur der schon bekannte Mißbrauch erkannt werden; eine Abstraktion der Erkenntnisse aus den Mißbrauchserfahrungen ist nicht möglich. Aus diesem Grund werden diese Mißbrauchstransaktionen mit Hilfe von Methoden aus dem Bereich des Data-Mining verallgemeinert und damit auf ein Minimum, soweit es die Verläßlichkeit dieser Datensätze zuläßt, reduziert. Desweiteren schließt sich eine Analyse der zu diesem Zeitpunkt noch nicht betrachteten analogen Daten an, um die maximale, enthaltene Information aus den Transaktionsdaten zu beziehen. Dafür werden moderne Methoden aus dem Bereich der neuronalen Netzwerke, sogenannte radiale Basisfunktionsnetze, verwendet. Da eine Mißbrauchsanalyse ohne eine entsprechende Profilanalyse unvollständig wäre, wurde abschließend mit den vorhanden Mitteln auf den zugrunde liegenden Daten in Anlehnung an die bisherige Methodik eine solche Profilauswertung und zeitabhängige Analyse realisiert. Mit dem so implementierten Modell wurde versucht, auf allgemeine Art und Weise, Verhaltens- beziehungsweise Transaktionsmuster einzuordnen und mit bei der Mißbrauchsentscheidung einfließen zu lassen. Aus den vorgestellten Analyseverfahren wurden verschiedene Klassifizierungsmodelle entwickelt, die zu guten Ergebnissen auf den Simulationsdaten führen. Es kann gezeigt werden, daß die Mißbrauchserkennung durch eine kombinierte Anwendung aus symbolischer und analoger Auswertung bestmöglich durchzuführen ist.
Durch Prozessverbesserungen ist es möglich, den Ressourcenverbrauch einer Unternehmung zu reduzieren, ohne an den Eigenschaften des erstellten Gutes Abstriche vornehmen zu müssen. Intuitiv ist ersichtlich, dass eine bessere Ausnutzung der vorhandenen Ressourcen vorteilhaft für die Unternehmung ist. Mit dem Übergang zur Informationsgesellschaft stellt sich die Frage, inwiefern traditionelle Verfahren zur Prozessverbesserung sich auf die immer bedeutender werdende Ressource „Wissen“ anwenden lassen. Hat Wissen in Verfahren zur Erstellung physischer Güter noch eine nur unterstützende Funktion, so stellt es in Branchen, deren Focus in der Entwicklung von Wissen liegt, den wichtigsten „Produktionsfaktor“ dar. In vorliegendem Text wird der Versuch unternommen, bekannte Verfahren zur Qualitätsverbesserung von Prozessen dahingehend zu betrachten, inwieweit sie für eine Anwendung auf den Umgang mit Wissen geeignet sind. Dazu erfolgt eine Darstellung grundlegender Begriffe, gefolgt von Kriterien, anhand derer die Qualität von Wissensprozessen beurteilt werden kann. Danach werden verschiedene Qualitätsverbesserungsverfahren dargestellt und ihre Eignung zur Anwendung auf Wissensprozesse beurteilt. Abschließend findet sich ein Ausblick darauf, in welchen Gebieten weitere Überlegungen zu diesem Thema angebracht sind. Hingewiesen werden muss auf dem Umstand, dass vorliegende Arbeit aus Platzgründen einige mehr oder minder starke Reduzierungen enthält. Bekannte Qualitätsverbesserungsverfahren wurden in verschiedene Kategorien eingeteilt, aus diesen Kategorien wurden dann exemplarisch einige Verfahren für die nähere Betrachtung ausgewählt. Einen Anspruch auf Vollständigkeit erhebt der vorliegende Text somit nicht. Auch die Kategorisierung kann nicht als allgemeingültig angesehen werden, da die meisten Qualitätsverbesserungsverfahren starke Unterschiede aufweisen und somit das Einordnen in ein einheitliches Schema erschweren. Dennoch wurden gemeinsame Merkmale identifiziert und zur Bildung von Kategorien verwandt.
In dieser Arbeit wurde die Implementierung einer JMX-konformen Managementinfrastruktur für das Agentensystem AMETAS vorgestellt. Darauf basierend wurden im Rahmen des Fehlermanagements Kontrollmechanismen der mobilen Agenten im AMETAS untersucht und eine Lösung für die Lokalisierung von AMETAS-Agenten entworfen und implementiert. Der essentielle Hintergrund für das AMETAS-Management stellt sich folgendermaßen dar: Die Betrachtung des Anwendungs- und Infrastrukturmanagements mit Blick auf die Managementhierarchie stellt die Offenheit und Kooperationsfähigkeit der angestrebten Managementlösung in den Vordergrund. Diese Eigenschaften ermöglichen die Integration der in einem Unternehmen existierenden Managementlösungen. Ziel ist dabei ein kostengünstiges und effizientes Management. Eine Managementarchitektur wird mit Hilfe der informations-, organisations-, kommunikations- und funktionsbezogenen Aspekte beschrieben und modelliert. Anhand dieser Aspekte ist CORBA, DMTF, WBEM und JMX analysiert und ihre Eignung für das AMETASManagement bewertet worden. Neben den allgemeinen Kriterien sind ihre Teilmodelle, ihre Unterstützung des dezentralen und des dynamischen Managements sowie ihre Integrationsfähigkeit im AMETAS zentrale Punkte. Es zeigt sich, dass die JMX die besten Möglichkeiten für das AMETAS-Management bietet. Das OSI-Funktionsmodell klassifiziert die Managementaufgaben und -funktionen in fünf Bereiche, die häufig als FCAPS bezeichnet werden: Fehler-, Konfigurations-, Abrechnungs- , Leistungs- und Sicherheitsmanagement. Diese Klassifikation ist orthogonal zu jeder anderen und bietet einen geeigneten Rahmen für die Aufteilung der Managementaufgaben und - funktionen. Das in dieser Arbeit empfohlene AMETAS-Management orientiert sich hinsichtlich der Managementaufgabenaufteilung am OSI-Modell. Die JMX bietet mächtigeWerkzeuge zur Instrumentierung aller Arten von Ressourcen. Ihre Java-Basiertheit bedeutet eine wesentliche Vereinfachung für das Agentensystem. Die offene Architektur von der JMX ermöglicht die Kooperation des AMETAS-Managements mit anderen Managementstandards. Das AMETAS-Management nutzt die Vorzüge der mobilen Agenten insbesondere im Bereich des Konfigurations- und Fehlermanagements aus. Folgende Eigenschaften zeichnen das AMETAS-Management aus: 1) Verwendung der Agenteninfrastruktur für das Management. Selbiges wird dabei als ein AMETAS-Dienst implementiert und kann alle Möglichkeiten und Dienste der Agenteninfrastruktur nutzen. 2) Verwendung der AMETAS-Agenten und Dienste als Managementwerkzeuge. 3) Selbstmanagement des Systems. Der Managementdienst ist hierfür mit ausreichender Intelligenz ausgestattet. Er nutzt die Mechanismen der Agenteninfrastruktur aus und erledigt diverse Managementaufgaben selbständig. Das Ereignissystem vom AMETAS spielt hierbei eine wichtige Rolle. Die Analyse der Kontrollmechanismen von MASIF, Aglets Workbench und Mole liefert hinsichtlich ihrer Eignung für die Lokalisierung von Agenten im AMETAS folgendes Ergebnis: Die untersuchten Ansätze sind teilweise allgemein anwendbar. Man unterscheidet die nichtdeterministischen Ansätze wie Advertising und Energiekonzept von denen, die bestimmte Spuren von Agenten in einer geeigneten Art hinterlegen. In dieser Hinsicht stellte sich das Pfadkonzept als interessant heraus: Bei diesem Konzept können die Informationen über den Pfad der Migration eines Agenten in geeigneterWeise zeitlich beschränkt oder unbeschränkt gespeichert werden. Eine andere Alternative bietet die Registrierungsmethode. Bei dieser Methode wird ein Agent in einer zentralen Stelle registriert, wobei die eindeutige Identität eines Agenten und die aktuelle Stelle, in der sich ein Agent aufhält, gespeichert werden. Vor dem Hintergrund der erfolgten Analyse empfiehlt sich als Basis für die Lokalisierung von AMETAS-Agenten eine Art Pfadkonzept: Die Spuren der Agenten werden durch einen Managementdienst gesichert. Will man einen bestimmten Agenten oder eine Gruppe lokalisieren, werden die dezentral vorhandenen Informationen innerhalb eines konsistenten Schnitts (Schnappschuss) ausgewertet. Die Schnappschussmethode empfiehlt sich für die Lokalisierung von Agenten im AMETAS entsprechend den zu Beginn der Arbeit von einem Lokalisierungsmechanismus geforderten Eigenschaften: Sie erlaubt eine zuverlässige Lokalisierung der gesuchten Agenten, deren Autonomie dabei respektiert wird. Die Kosten-Leistungsrelation ist günstig einzuschätzen, da unnötiger Daten- bzw. Agentenverkehr ebenso vermieden wird wie die Pflege umfangreicher, zentralistischer Datenbanken.
Aufbau eines Experimentes zur Untersuchung der Ionenstrahlkühlung mit Hilfe eines HF-Quadrupols
(2003)
Die Arbeit beschreibt ein Experiment zur Kühlung eines 40Ar-Ionenstrahls mittels eines 4He-Hintergrundgases innerhalb eines unmodulierten RF-Quadrupols von 500 mm Länge. Ziel des Experimentes war es, den Einfluss der Gaskühlung auf die Qualität von Ionenstrahlen geringer Energie und Intensität zu untersuchen. Die Ionen wurden bei unterschiedlichen Spannungen aus einem Duoplasmatron extrahiert und vor der Injektion in den Quadrupol durch ein elektrostatisches Linsensystem formiert. Die Stromstärke der Strahles wurde mittels einer Faradaytasse gemessen, die mit einer Sekundärelektronen unterdrückenden Repellerblende ausgestattet ist. Der Einfluß der variierten Parameter Hintergrundgasdruck, Quadrupolfrequenz und Strahlenergie auf die Qualität des Strahls wurde dabei nicht direkt über dessen, die Phasenraumverteilung beschreibende, Emittanz gemessen, sondern über die Veränderung der registrierten Strahlstromstärken an einer Blende konstanter Apertur, also der Brillanz abgeleitet. Vorbereitend wurden zunächst Duoplasmatron und Injektionssystem überholt, aufgebaut und mit der nötigen Energie- und Kühlversorgung ausgerüstet. Im anschließenden Testlauf mit ungekühlten Heliumionen wurden die einzustellenden Werte der Betriebsparameter Quellendruck und diverse Blendenspannungen ermittelt und das System auf seine der Reproduktion dienenden Stabilität geprüft. Dabei wurden im Dauerbetrieb Strahlstromstärken von 0,29 mA bei 1 keV/u und 0,02 mA bei 0,15 keV/u Strahlenergie erzielt. Mittels der bekannten Emittanz des Helium-Strahls bei 1 keV/u Energie und 0,25 mA Strahlstromstärke wurde die jeweilige normierte Emittanz der noch ungekühlten Strahlen auf 2,18*10-2 im ersten und 1,61*10-2 im zweiten Fall abgeschätzt. Zur Gaskühlung wurde ein Quadrupol mit 10 mm Apertur- und 7,5 mm Elektrodenradius gefertigt und mit einem Phasentrenner gekoppelt. Ein Breitbandgenerator und -Verstärker dienten der frequenz- und spannungsvariablen Elektrodenbelegung. Der Hintergrundgasdruck wurde mittels einem handelsüblichen Regelventil variiert. Um der ein großes Masseverhältnis von Strahlionen zu Hintergrundgas fordernden Theorie Rechnung zu tragen, wurden Argon als Ionen und Helium als Buffergas gewählt. Einer eingehenden Untersuchung der Auswirkung der einzelnen Komponenten und ihrer Kombination auf die Eigenschaften des Ionenstrahls folgte eine schrittweise Variation von Quadrupolfrequenz und Hintergrundgasdruck im Bereich 1-5 MHz und 9*10-6 - 4*10-3 mbar bei den Strahlenergien 15, 25 und 80 eV/u. Die hierbei gemessenen Strahlstromstärken wurden über die frequenzabhängige Elektrodenspannung normiert und mit der Stärke der ungekühlten Strahlen verglichen. Bei 15 eV/u Strahlenergie konnte die gemessene Maximalstromstärke um 43 % von 0,014 µA/V ungekühlt auf 0,02 µA/V bei 1*10-4 mbar Hintergrundgasdruck gesteigert werden. Die Strahlstromstärke des Strahles mit 25 eV/u Energie wurde von 0,045µA/V des ungekühlten auf 0,1 µA/V bei ca. 6*10-5 mbar verdoppelt. Bei 80 eV/u Energie blieb die Strahlstromstärke mit 0,35 µA/V unverändert, jedoch wurde im gesamten Bereich zwischen 2*10-5 und 3*10-5 mbar und 3,4 - 4,6 MHz mit annähernd konstanten 0,28 µA/V ein Plateau hoher Strahlstromstärke registriert, dem etwa 0,06 µA/V im ungekühlten Strahl entgegenstehen. Ein weniger stark ausgeprägtes Analogon wurde bei 15 eV/u im Frequenzbereich um 3,5 MHz beobachtet. In zwei von drei Fällen konnte im Experiment die Strahlstromstärke durch die Gaskühlung deutlich gesteigert werden, im dritten Fall wurde die Zahl der transportierten Ionen in einem zuvor ungeeigneten Frequenzbereich um den Faktor 4,5 gesteigert. Durch die Beziehung zwischen Strahlstromstärke I, Strahlbrillanz B und Strahlemittanz ε mit I~B~1/ε2 kann abschließend eine Verminderung der Strahlemittanz durch die Gaskühlung festgestellt werden. Die durchgeführten Experimente haben gezeigt, daß man bei niedrigen Strahlenergien einfach geladene Ionen bei relativ hohem Gasdruck und geeigneten Parametern des Quadrupols transportieren und die Emittanz des Strahls verbessern kann. Die Kombination von Quadrupol und Buffergas stellt also ein System dar, das als Gaskühler bei kleinen Strömen von Niedrigenergiestrahlen eingesetzt werden kann. Als nächstes würde zur weitergehenden, jedoch den Rahmen dieser Arbeit übersteigenden Untersuchung ein technisch und finanziell aufwändigerer Aufbau benötigt. Das benutzte Linsensystem würde durch ein auf die Ionensorte speziell abgestimmtes Injektionssystem und die Faradaytasse durch eine rechnergesteuerte, orts- und winkelauflösende Emittanzmessanlage ersetzt. Die somit erhaltene höhere Auflösung des Strahles würde den Übergang von der vorliegenden qualitativen Beschreibung der Gaskühlung zu einer quantitativen ermöglichen.