Refine
Year of publication
- 2001 (13) (remove)
Document Type
- diplomthesis (13) (remove)
Language
- German (13) (remove)
Has Fulltext
- yes (13) (remove)
Is part of the Bibliography
- no (13)
Keywords
- Chiffrierung (1)
- XML (1)
Institute
- Physik (7)
- Geowissenschaften (2)
- Informatik (2)
- Mathematik (1)
- Wirtschaftswissenschaften (1)
Durch Prozessverbesserungen ist es möglich, den Ressourcenverbrauch einer Unternehmung zu reduzieren, ohne an den Eigenschaften des erstellten Gutes Abstriche vornehmen zu müssen. Intuitiv ist ersichtlich, dass eine bessere Ausnutzung der vorhandenen Ressourcen vorteilhaft für die Unternehmung ist. Mit dem Übergang zur Informationsgesellschaft stellt sich die Frage, inwiefern traditionelle Verfahren zur Prozessverbesserung sich auf die immer bedeutender werdende Ressource „Wissen“ anwenden lassen. Hat Wissen in Verfahren zur Erstellung physischer Güter noch eine nur unterstützende Funktion, so stellt es in Branchen, deren Focus in der Entwicklung von Wissen liegt, den wichtigsten „Produktionsfaktor“ dar. In vorliegendem Text wird der Versuch unternommen, bekannte Verfahren zur Qualitätsverbesserung von Prozessen dahingehend zu betrachten, inwieweit sie für eine Anwendung auf den Umgang mit Wissen geeignet sind. Dazu erfolgt eine Darstellung grundlegender Begriffe, gefolgt von Kriterien, anhand derer die Qualität von Wissensprozessen beurteilt werden kann. Danach werden verschiedene Qualitätsverbesserungsverfahren dargestellt und ihre Eignung zur Anwendung auf Wissensprozesse beurteilt. Abschließend findet sich ein Ausblick darauf, in welchen Gebieten weitere Überlegungen zu diesem Thema angebracht sind. Hingewiesen werden muss auf dem Umstand, dass vorliegende Arbeit aus Platzgründen einige mehr oder minder starke Reduzierungen enthält. Bekannte Qualitätsverbesserungsverfahren wurden in verschiedene Kategorien eingeteilt, aus diesen Kategorien wurden dann exemplarisch einige Verfahren für die nähere Betrachtung ausgewählt. Einen Anspruch auf Vollständigkeit erhebt der vorliegende Text somit nicht. Auch die Kategorisierung kann nicht als allgemeingültig angesehen werden, da die meisten Qualitätsverbesserungsverfahren starke Unterschiede aufweisen und somit das Einordnen in ein einheitliches Schema erschweren. Dennoch wurden gemeinsame Merkmale identifiziert und zur Bildung von Kategorien verwandt.
In dieser Arbeit wurde die Produktion negativ geladener Pionen in zentralen Blei+Blei Kollisionen bei 40 A·GeV am CERN SPS mit dem Experiment NA49 untersucht. Die Analyse der Pionen basiert auf der Tatsache, das sie ungefähr 90% des hadronischen Endzustands aller negativ geladenen Hadronen darstellen, wobei der Rest hauptsächlich aus Kaonen besteht. Diese Analyse deckt die komplette vordere Hemisphäre ab, somit wurden keinerlei Extrapolationen benötigt. Für diese Analyse wurde ein komplett neuer Satz von Schnitten in diversen Variablen der Daten von NA49 gesucht und optimiert. Um einen möglichst gut bestimmten Satz von Spuren zu verwenden, wurde nur ein kleiner Teil aller Spuren verwendet, der aber exakt und einfach zur vollen Akzeptanz zurückkorrigiert werden kann. Um die Spuren aus Zerfällen nahe am Hauptinteraktionspunkt und um Dreckeffekte wie γ-Konversion oder Vielfachstreuung zu entfernen, wurde ein komplett neuer Korrekturalgorithmus entwickelt und getestet. Da bei dieser Energie die Spurmultiplizitäten ungefähr um einen Faktor zwei kleiner sind, wurde beobachtet, daß Ineffizienzen in der Rekonstruktion eine untergeordnete Rolle spielen. Hier wurde im Mittel eine Korrektur von 8% verwendet. Um Spektren negativer Pionen zu erhalten, müssen die negativ geladenen Kaonen aus dem Spursatz entfernt werden, hierfür wurde eine Simulation aufgebaut und eingesetzt. Ein großes Problem stellt die Abschätzung des Systematischen Fehlers dar, da es eine Mannigfaltigkeit von Fehlerquellen gibt. In dieser Arbeit wurden zwei Methoden angewandt, um den Systematischen Fehler abzuschätzen. Das Ergebnis der hier vorgestellten Analyse ergibt eine mittlere Multiplizität für die negativen Pionen von 320±14. Die Präsentation eines vorläufigen Zustands dieser Analyse in Kombination mit den neu gewonnen Kaonwerten [1] vor dem SPSC [2] veränderten den vorhandenen Strahlzeitplan nachhaltig, so daß in extrem kurzer Zeit nach ieser Präsentation eine Energieabtastung gestartet wurde. Schon ein paar Monate später bekam NA49 hierfür einen Bleistrahl bei der Energie von 80 A·GeV und wird im Jahr 2002 auch Energien von 20 und 30 A·GeV geliefert bekommen. Auch wurden diese Daten auf der QM2001 als vorläufige Ergebnisse präsentiert. Desweiteren bilden die Ergebnisse, sowie die aus der 80 A·GeV Analyse und denen bei Top-SPS Energie gewonnenen kombiniert mit den Kaonergebnissen bei den gleichen Energien die Grundlage für ein Physical Review Letter der NA49-Kollaboration zum Thema der Energieabhängigkeit des K+/π + Verhältnis. Die Motivation für diese Arbeit war die Suche nach einer Evidenz des Quark-Gluon-Plasma und bei der analysierten Energie wurde der Übergang in diese Phase vorhergesagt [3]. Man sollte einen Wechsel von der Pionunterdrückung zur Pionvermehrung im Vergleich mit den Daten aus Nukleus+Nukleus Experimenten in dem Verhältnis der mittleren Pionmultiplizität zu der Anzahl der Teilnehmenden Nukleonen beobachten. Diese Vermutung stellte sich als richtig heraus. Diesen Wechsel kann man erklären, wenn man einen Phasenübergang zu einer Phase quasifreier Quarks und Gluonen in diesem Bereich annimmt. Die Pionen stellen, aufgrund ihrer geringen Masse, die häufigsten Teilchen dar und sind somit auch eine gute Meßprobe für die gesamte Entropie des Feuerballs. Da die Anzahl der Freiheitsgrade in einem QGP massiv ansteigen muß, sollte man eine erhöhte Produktion von Pionen beobachten. Der Meßpunkt bei 40 A·GeV liegt genau in dem Bereich des Wechsels. Ein Vergleich mit den Modellen zeigt, das kein Modell, wenn es überhaupt Pionen beschreiben kann, die Produktion von Pionen korrekt wiedergibt, außer das „Statistical Modell of the early Stage“, das die Pionproduktion beschreibt und auch den Wechsel von Pionunterdrückung zu Pionvermehrung im Bereich um 40 A·GeV wiedergibt. Dieses Modell besitzt eine Phasenübergang von gebundener Materie zum QGP. Das Hadrongas-Modell kann die Pionen bei jeder Energie beschreiben, aber eine Vorhersage ist nicht möglich, da die Pionen als Eingabe in dieses Modell benötigt werden. Die Ergebnisse von NA49 haben neuen Schwung in die Erklärung von Schwerionenkollisionen und die Suche nach dem QGP gebracht. Die ersten „Resultate“ sind eine Energieabtastung am CERN-SPS und diverse Änderungen an vorhandenen Modellen, um vor allem das nichtmonotonische Verhalten des K+/Pi + Verhältnisses zu beschreiben. Bis jetzt existiert kein Modell und keine Erklärung, die die Daten beschreibt und auf anderen Hadronischen Erklärungen basiert. Somit kann man feststellen, daß eine sich erhärtende Evidenz für die Produktion des QGP am CERN-SPS vorhanden ist.
Im Rahmen dieser Arbeit wurden Zellulare Neuronale Netzwerke (CNN) zur nichtlinearen Signalanalyse bei der Prädiktion hirnelektrischer Signale bei Epilepsie herangezogen. Die invasiven Aufnahmen hirnelektrischer Aktivität liegen zeitlich diskretisiert vor, sodaß ein zeitdiskretes Netzwerk (DTCNN) eingesetzt werden konnte. Die parallele Struktur von CNN konnte zur simultanen Untersuchung von sechs Elektroden genutzt werden, mit denen die hirnelektrische Aktivität aufgenommen wurde. Insbesondere ist die direkte Wechselwirkung der einzelnen Zellen untereinander durch eine lokale Nachbarschaft gegeben. In den durchgeführten Untersuchungen wurde zunächst festgestellt, daß für ein DTCNN, das ausgehend vom aktuellen Zeitpunkt den Signalwert des nächsten Zeitpunktes prädizieren soll, eine Prädiktionsordnung größer als zwei keine wesentliche Minimierung des Prädiktionsfehlers nach sich zieht. Daher wurde ein DTCNN mit zeitlich verzögerten Zellzuständen eingesetzt, wobei die Definitionsweise von Roska und Chua [21] im Rahmen dieser Arbeit für beliebige Prädiktionsordnungen erweitert wurde. Da bei einer Prädiktionsschrittweite größer als eins eine deutliche Erhöhung des Prädiktionsfehlers festgestellt werden konnte, wurde diese im folgenden gleich eins gewählt. Weiterhin wurde festgestellt, daß bei Verwendung polynomialer Kopplungsfunktionen der Grad der Nichtlinearität gleich drei gewählt werden kann, da eine weitere Erhöhung des Grades der Nichtlinearität zu keineren weiteren Minimierung des Prädiktionsfehlers geführt hat. Im Rahmen dieser Arbeit wurde ein Programm entwickelt, das aus den Aufnahmen der hirnelektrischen Aktivität einzelne Elektroden extrahieren kann, sodaß die Meßwerte dem DTCNN präsentiert werden konnten. Mit Hilfe des zugrundegelegten DTCNN konnte der zeitliche Verlauf der hirnelektrischen Aktivität von sechs Elektroden simultan prädiziert werden. Eine Analyse des zeitlichen Verlaufes des Prädiktionsfehlers ließ vor einem epileptischen Anfall keine signifikanten Änderungen erkennen. Daher wurde ein Programm entwickelt, mit dessen Hilfe der zeitliche Verlauf der Parameter des verwendeten DTCNN analysiert und deutliche Änderungen aufgezeigt werden können. Es konnten Berechnungsmethoden, hier die lokale Mittelwertbildung und die Gradientenberechnung, gefunden und an den jeweils untersuchten Patienten angepaßt werden, sodaß diese Änderungen der Parameter deutlicher hervorgehoben wurden. Bei zwei der vier Patienten konnten signifikante Änderungen des zeitlichen Verlaufes der Parameter des untersuchten DTCNN festgestellt werden, die vor dem Auftreten des epileptischen Anfalls liegen und somit als Vorläufer eines epileptischen Anfalls betrachtet werden können. Die Untersuchung eines dritten Patienten zeigte deutliche Änderungen der analysierten Parameter, die zeitlich mit dem Beginn des epileptischen Anfalls übereinstimmen. Bei einem vierten Patienten konnten signifikante Änderungen des zeitlichen Verlaufes der Parameter vor dem epileptischen Anfall nur dann festgestellt werden, wenn der betrachtete Datensatz hirnelektrischer Aktivität während des Auftretens eines Anfalls aufgenommen wurde. Wurde stattdessen die Aufnahme von zwei epileptischen Anfällen, die kurz hintereinander auftraten, analysiert, so konnten keine signifikanten Änderungen des Verlaufes der Parameter gefunden werden.
In dieser Arbeit wurde die Implementierung einer JMX-konformen Managementinfrastruktur für das Agentensystem AMETAS vorgestellt. Darauf basierend wurden im Rahmen des Fehlermanagements Kontrollmechanismen der mobilen Agenten im AMETAS untersucht und eine Lösung für die Lokalisierung von AMETAS-Agenten entworfen und implementiert. Der essentielle Hintergrund für das AMETAS-Management stellt sich folgendermaßen dar: Die Betrachtung des Anwendungs- und Infrastrukturmanagements mit Blick auf die Managementhierarchie stellt die Offenheit und Kooperationsfähigkeit der angestrebten Managementlösung in den Vordergrund. Diese Eigenschaften ermöglichen die Integration der in einem Unternehmen existierenden Managementlösungen. Ziel ist dabei ein kostengünstiges und effizientes Management. Eine Managementarchitektur wird mit Hilfe der informations-, organisations-, kommunikations- und funktionsbezogenen Aspekte beschrieben und modelliert. Anhand dieser Aspekte ist CORBA, DMTF, WBEM und JMX analysiert und ihre Eignung für das AMETASManagement bewertet worden. Neben den allgemeinen Kriterien sind ihre Teilmodelle, ihre Unterstützung des dezentralen und des dynamischen Managements sowie ihre Integrationsfähigkeit im AMETAS zentrale Punkte. Es zeigt sich, dass die JMX die besten Möglichkeiten für das AMETAS-Management bietet. Das OSI-Funktionsmodell klassifiziert die Managementaufgaben und -funktionen in fünf Bereiche, die häufig als FCAPS bezeichnet werden: Fehler-, Konfigurations-, Abrechnungs- , Leistungs- und Sicherheitsmanagement. Diese Klassifikation ist orthogonal zu jeder anderen und bietet einen geeigneten Rahmen für die Aufteilung der Managementaufgaben und - funktionen. Das in dieser Arbeit empfohlene AMETAS-Management orientiert sich hinsichtlich der Managementaufgabenaufteilung am OSI-Modell. Die JMX bietet mächtigeWerkzeuge zur Instrumentierung aller Arten von Ressourcen. Ihre Java-Basiertheit bedeutet eine wesentliche Vereinfachung für das Agentensystem. Die offene Architektur von der JMX ermöglicht die Kooperation des AMETAS-Managements mit anderen Managementstandards. Das AMETAS-Management nutzt die Vorzüge der mobilen Agenten insbesondere im Bereich des Konfigurations- und Fehlermanagements aus. Folgende Eigenschaften zeichnen das AMETAS-Management aus: 1) Verwendung der Agenteninfrastruktur für das Management. Selbiges wird dabei als ein AMETAS-Dienst implementiert und kann alle Möglichkeiten und Dienste der Agenteninfrastruktur nutzen. 2) Verwendung der AMETAS-Agenten und Dienste als Managementwerkzeuge. 3) Selbstmanagement des Systems. Der Managementdienst ist hierfür mit ausreichender Intelligenz ausgestattet. Er nutzt die Mechanismen der Agenteninfrastruktur aus und erledigt diverse Managementaufgaben selbständig. Das Ereignissystem vom AMETAS spielt hierbei eine wichtige Rolle. Die Analyse der Kontrollmechanismen von MASIF, Aglets Workbench und Mole liefert hinsichtlich ihrer Eignung für die Lokalisierung von Agenten im AMETAS folgendes Ergebnis: Die untersuchten Ansätze sind teilweise allgemein anwendbar. Man unterscheidet die nichtdeterministischen Ansätze wie Advertising und Energiekonzept von denen, die bestimmte Spuren von Agenten in einer geeigneten Art hinterlegen. In dieser Hinsicht stellte sich das Pfadkonzept als interessant heraus: Bei diesem Konzept können die Informationen über den Pfad der Migration eines Agenten in geeigneterWeise zeitlich beschränkt oder unbeschränkt gespeichert werden. Eine andere Alternative bietet die Registrierungsmethode. Bei dieser Methode wird ein Agent in einer zentralen Stelle registriert, wobei die eindeutige Identität eines Agenten und die aktuelle Stelle, in der sich ein Agent aufhält, gespeichert werden. Vor dem Hintergrund der erfolgten Analyse empfiehlt sich als Basis für die Lokalisierung von AMETAS-Agenten eine Art Pfadkonzept: Die Spuren der Agenten werden durch einen Managementdienst gesichert. Will man einen bestimmten Agenten oder eine Gruppe lokalisieren, werden die dezentral vorhandenen Informationen innerhalb eines konsistenten Schnitts (Schnappschuss) ausgewertet. Die Schnappschussmethode empfiehlt sich für die Lokalisierung von Agenten im AMETAS entsprechend den zu Beginn der Arbeit von einem Lokalisierungsmechanismus geforderten Eigenschaften: Sie erlaubt eine zuverlässige Lokalisierung der gesuchten Agenten, deren Autonomie dabei respektiert wird. Die Kosten-Leistungsrelation ist günstig einzuschätzen, da unnötiger Daten- bzw. Agentenverkehr ebenso vermieden wird wie die Pflege umfangreicher, zentralistischer Datenbanken.
Diese Arbeit befasst sich mit der Zerlegung von Irrfahrten und Lévy Prozessen an ihrem Minimum. Bis auf rudimentäre Vorkenntnisse der höheren Stochastik und einige wenige aber wichtige Sätze stellt die Arbeit alle notwendigen Begriffe und Sätze zur Verfügung, die für das Verständnis und die Beweise benötigt werden. Diese bewusste Entscheidung zur Ausführlichkeit auch bei grundlegenden Dingen hat zwei Hintergründe: Zum einen bleibt die Arbeit damit auch für Leser mit geringen Vorkenntnissen interessant, und zum anderen entsteht so keine lange und unübersichtliche Kette von Verweisen und Zitaten, die das Verständnis des dargestellten Themas erschwert und die logischen Schlüsse nur noch von Spezialisten vollständig nachvollzogen werden können. Ein weiterer Nebeneffekt ist die Tatsache, dass Verwirrungen aufgrund unterschiedlicher Interpretationen eines Begriffs vermieden werden. Das weitere Vorwort teilt sich in zwei Abschnitte; zum einen in den Abschnitt der Irrfahrten und zum anderen in den Abschnitt der Lévy-Prozesse. Diese Einteilung spiegelt auch die Strukturierung der Arbeit selber wieder; ein Blick in das Inhaltsverzeichnis verrät, dass zuerst Irrfahrten und danach Lévy Prozesse behandelt werden.