Refine
Year of publication
- 2001 (13) (remove)
Document Type
- diplomthesis (13) (remove)
Language
- German (13)
Has Fulltext
- yes (13)
Is part of the Bibliography
- no (13)
Keywords
- Chiffrierung (1)
- XML (1)
Institute
- Physik (7)
- Geowissenschaften (2)
- Informatik (2)
- Mathematik (1)
- Wirtschaftswissenschaften (1)
Im Rahmen dieser Arbeit wurden Zellulare Neuronale Netzwerke (CNN) zur nichtlinearen Signalanalyse bei der Prädiktion hirnelektrischer Signale bei Epilepsie herangezogen. Die invasiven Aufnahmen hirnelektrischer Aktivität liegen zeitlich diskretisiert vor, sodaß ein zeitdiskretes Netzwerk (DTCNN) eingesetzt werden konnte. Die parallele Struktur von CNN konnte zur simultanen Untersuchung von sechs Elektroden genutzt werden, mit denen die hirnelektrische Aktivität aufgenommen wurde. Insbesondere ist die direkte Wechselwirkung der einzelnen Zellen untereinander durch eine lokale Nachbarschaft gegeben. In den durchgeführten Untersuchungen wurde zunächst festgestellt, daß für ein DTCNN, das ausgehend vom aktuellen Zeitpunkt den Signalwert des nächsten Zeitpunktes prädizieren soll, eine Prädiktionsordnung größer als zwei keine wesentliche Minimierung des Prädiktionsfehlers nach sich zieht. Daher wurde ein DTCNN mit zeitlich verzögerten Zellzuständen eingesetzt, wobei die Definitionsweise von Roska und Chua [21] im Rahmen dieser Arbeit für beliebige Prädiktionsordnungen erweitert wurde. Da bei einer Prädiktionsschrittweite größer als eins eine deutliche Erhöhung des Prädiktionsfehlers festgestellt werden konnte, wurde diese im folgenden gleich eins gewählt. Weiterhin wurde festgestellt, daß bei Verwendung polynomialer Kopplungsfunktionen der Grad der Nichtlinearität gleich drei gewählt werden kann, da eine weitere Erhöhung des Grades der Nichtlinearität zu keineren weiteren Minimierung des Prädiktionsfehlers geführt hat. Im Rahmen dieser Arbeit wurde ein Programm entwickelt, das aus den Aufnahmen der hirnelektrischen Aktivität einzelne Elektroden extrahieren kann, sodaß die Meßwerte dem DTCNN präsentiert werden konnten. Mit Hilfe des zugrundegelegten DTCNN konnte der zeitliche Verlauf der hirnelektrischen Aktivität von sechs Elektroden simultan prädiziert werden. Eine Analyse des zeitlichen Verlaufes des Prädiktionsfehlers ließ vor einem epileptischen Anfall keine signifikanten Änderungen erkennen. Daher wurde ein Programm entwickelt, mit dessen Hilfe der zeitliche Verlauf der Parameter des verwendeten DTCNN analysiert und deutliche Änderungen aufgezeigt werden können. Es konnten Berechnungsmethoden, hier die lokale Mittelwertbildung und die Gradientenberechnung, gefunden und an den jeweils untersuchten Patienten angepaßt werden, sodaß diese Änderungen der Parameter deutlicher hervorgehoben wurden. Bei zwei der vier Patienten konnten signifikante Änderungen des zeitlichen Verlaufes der Parameter des untersuchten DTCNN festgestellt werden, die vor dem Auftreten des epileptischen Anfalls liegen und somit als Vorläufer eines epileptischen Anfalls betrachtet werden können. Die Untersuchung eines dritten Patienten zeigte deutliche Änderungen der analysierten Parameter, die zeitlich mit dem Beginn des epileptischen Anfalls übereinstimmen. Bei einem vierten Patienten konnten signifikante Änderungen des zeitlichen Verlaufes der Parameter vor dem epileptischen Anfall nur dann festgestellt werden, wenn der betrachtete Datensatz hirnelektrischer Aktivität während des Auftretens eines Anfalls aufgenommen wurde. Wurde stattdessen die Aufnahme von zwei epileptischen Anfällen, die kurz hintereinander auftraten, analysiert, so konnten keine signifikanten Änderungen des Verlaufes der Parameter gefunden werden.
In dieser Arbeit wurde die Implementierung einer JMX-konformen Managementinfrastruktur für das Agentensystem AMETAS vorgestellt. Darauf basierend wurden im Rahmen des Fehlermanagements Kontrollmechanismen der mobilen Agenten im AMETAS untersucht und eine Lösung für die Lokalisierung von AMETAS-Agenten entworfen und implementiert. Der essentielle Hintergrund für das AMETAS-Management stellt sich folgendermaßen dar: Die Betrachtung des Anwendungs- und Infrastrukturmanagements mit Blick auf die Managementhierarchie stellt die Offenheit und Kooperationsfähigkeit der angestrebten Managementlösung in den Vordergrund. Diese Eigenschaften ermöglichen die Integration der in einem Unternehmen existierenden Managementlösungen. Ziel ist dabei ein kostengünstiges und effizientes Management. Eine Managementarchitektur wird mit Hilfe der informations-, organisations-, kommunikations- und funktionsbezogenen Aspekte beschrieben und modelliert. Anhand dieser Aspekte ist CORBA, DMTF, WBEM und JMX analysiert und ihre Eignung für das AMETASManagement bewertet worden. Neben den allgemeinen Kriterien sind ihre Teilmodelle, ihre Unterstützung des dezentralen und des dynamischen Managements sowie ihre Integrationsfähigkeit im AMETAS zentrale Punkte. Es zeigt sich, dass die JMX die besten Möglichkeiten für das AMETAS-Management bietet. Das OSI-Funktionsmodell klassifiziert die Managementaufgaben und -funktionen in fünf Bereiche, die häufig als FCAPS bezeichnet werden: Fehler-, Konfigurations-, Abrechnungs- , Leistungs- und Sicherheitsmanagement. Diese Klassifikation ist orthogonal zu jeder anderen und bietet einen geeigneten Rahmen für die Aufteilung der Managementaufgaben und - funktionen. Das in dieser Arbeit empfohlene AMETAS-Management orientiert sich hinsichtlich der Managementaufgabenaufteilung am OSI-Modell. Die JMX bietet mächtigeWerkzeuge zur Instrumentierung aller Arten von Ressourcen. Ihre Java-Basiertheit bedeutet eine wesentliche Vereinfachung für das Agentensystem. Die offene Architektur von der JMX ermöglicht die Kooperation des AMETAS-Managements mit anderen Managementstandards. Das AMETAS-Management nutzt die Vorzüge der mobilen Agenten insbesondere im Bereich des Konfigurations- und Fehlermanagements aus. Folgende Eigenschaften zeichnen das AMETAS-Management aus: 1) Verwendung der Agenteninfrastruktur für das Management. Selbiges wird dabei als ein AMETAS-Dienst implementiert und kann alle Möglichkeiten und Dienste der Agenteninfrastruktur nutzen. 2) Verwendung der AMETAS-Agenten und Dienste als Managementwerkzeuge. 3) Selbstmanagement des Systems. Der Managementdienst ist hierfür mit ausreichender Intelligenz ausgestattet. Er nutzt die Mechanismen der Agenteninfrastruktur aus und erledigt diverse Managementaufgaben selbständig. Das Ereignissystem vom AMETAS spielt hierbei eine wichtige Rolle. Die Analyse der Kontrollmechanismen von MASIF, Aglets Workbench und Mole liefert hinsichtlich ihrer Eignung für die Lokalisierung von Agenten im AMETAS folgendes Ergebnis: Die untersuchten Ansätze sind teilweise allgemein anwendbar. Man unterscheidet die nichtdeterministischen Ansätze wie Advertising und Energiekonzept von denen, die bestimmte Spuren von Agenten in einer geeigneten Art hinterlegen. In dieser Hinsicht stellte sich das Pfadkonzept als interessant heraus: Bei diesem Konzept können die Informationen über den Pfad der Migration eines Agenten in geeigneterWeise zeitlich beschränkt oder unbeschränkt gespeichert werden. Eine andere Alternative bietet die Registrierungsmethode. Bei dieser Methode wird ein Agent in einer zentralen Stelle registriert, wobei die eindeutige Identität eines Agenten und die aktuelle Stelle, in der sich ein Agent aufhält, gespeichert werden. Vor dem Hintergrund der erfolgten Analyse empfiehlt sich als Basis für die Lokalisierung von AMETAS-Agenten eine Art Pfadkonzept: Die Spuren der Agenten werden durch einen Managementdienst gesichert. Will man einen bestimmten Agenten oder eine Gruppe lokalisieren, werden die dezentral vorhandenen Informationen innerhalb eines konsistenten Schnitts (Schnappschuss) ausgewertet. Die Schnappschussmethode empfiehlt sich für die Lokalisierung von Agenten im AMETAS entsprechend den zu Beginn der Arbeit von einem Lokalisierungsmechanismus geforderten Eigenschaften: Sie erlaubt eine zuverlässige Lokalisierung der gesuchten Agenten, deren Autonomie dabei respektiert wird. Die Kosten-Leistungsrelation ist günstig einzuschätzen, da unnötiger Daten- bzw. Agentenverkehr ebenso vermieden wird wie die Pflege umfangreicher, zentralistischer Datenbanken.
Entwurf und prototypische Realisierung einer Architektur zur flexiblen Verschlüsselung von XML-Daten
(2001)
Im Rahmen dieser Arbeit ist auf Basis einer sorgfältigen Prüfung existierender Literatur zu kryptografischen Verfahren und sowohl einer Analyse bestehender Ansätze zur Verschlüsselung von XML-Dokumenten, als auch unter Nutzung bestehender Standards für XML-Technologien, eine Architektur zur flexiblen Verschlüsselung von XML-Daten erstellt worden. Ausgehend von Einsatz-Szenarien wurden dazu Anforderungen an das gewünschte System definiert. Anhand dieser Anforderungen wurde systematisch eine vollständige Spezifikation zur Verschlüsselung von XML-Daten hergeleitet. Weiterhin ist eine erweiterbare und generische Architektur zur Verarbeitung von XML-Daten spezifiziert worden. Auf dieser aufbauend, wurde eine Architektur für die flexible Ver- und Entschlüsselung von XML-Daten erstellt. Diese Architekturen und ihre Komponenten sind generisch, wobei für die prototypische Realisierung exemplarisch eine konkrete Auswahl dieser Komponenten implementiert wurde. Für die Verschlüsselung wurde dazu auf die zuvor erstellte Spezifikation zurückgegriffen und deren relevante Teile implementiert. Anschliessend wurden Experimente durchgeführt, die einen Eindruck von der Leistungsfähigkeit der Architektur gegeben haben. Insgesamt haben sich die Erwartungen an die Architektur mehr als erfüllt. Stehen Transformationen als verwendbare Klassen bereit, die auf dem DOM operieren, so ist es leicht möglich, diese in das DPF einzubetten, wie z.B. beim Verschlüsselungs-Prozessor geschehen. Damit ist eine sehr gute Erweiterbarkeit gegeben. Da die Arbeitsweise eines Transformations-Prozessors sowohl direkt durch übergebene Argumente aus dem DPS als auch durch die Verwendung von Annotationen gesteuert werden kann, kann die Verarbeitung von Dokumenten sehr flexibel und auch feingranular erfolgen. Die Möglichkeit, Annotationen aus mehreren DAS-Dokumenten zu aggregieren, erlaubt eine verteilte Pflege dieser Dokumente. Mit der Möglichkeit, mehrere Prozessoren direkt nacheinander eine Eingabe bearbeiten zu lassen, wird die Flexibilität nochmals gesteigert. Denn wenn die Prozessoren als Komponenten zur Verfügung stehen, können diese stets aufs Neue kombiniert werden. Vor allem der Ansatz, dass alle zur Verarbeitung und Steuerung relevanten Daten in Form deklarativer Beschreibungen erfolgen, die den Bedürfnissen jedes Prozessors angepasst sind, macht das System zu einem mächtigen Instrument. Zudem werden dadurch keine tiefergehenden Programmierkenntnisse benötigt. So entfällt auch die Notwendigkeit, Änderungen des gewünschten Transformations-Ergebnisses durch Änderungen im Quelltext des erzeugenden Programms vorzunehmen. Dadurch sind insgesamt den Möglichkeiten zur Verarbeitung von XML-Dokumenten kaum Grenzen gesetzt. Notwendige Anpassungen bleiben zumeist auf eine oder wenige Komponenten beschränkt, was Änderungen leichter ermöglicht. Dabei hat sich wieder einmal der flexible und trotzdem mächtige Ansatz der Kette von Werkzeugen (Chain of Tools) bewährt. Auch die Spezifikation zur Verschlüsselung von XML-Daten konnte alle Erwartungen erfüllen. Alle eingangs gestellten Anforderungen sind damit ausnahmslos darstellbar. Insbesondere betrifft dies die partielle und feingranulare Verschlüsselung von XML-Daten, sowie die hierarchische und damit einhergehende Super-Verschlüsselung. Rückblickend kann gesagt werden, dass das wissenschaftliche Fundament in Form von kryptografischen Grundlagen zwar sehr gut ist, aber die darauf aufbauenden höherwertigen Dienste und Architekturen aus wissenschaftlicher Sicht bisher kaum Beachtung gefunden haben. So wird zwar die Verschlüsselung von ganzen Daten-Objekten zwischen zwei Empfängern gut beherrscht, aber eine feingranulare Verschlüsselung, bei der Daten an grosse dynamische Empfängergruppen in offenen Systemen vertraulich übermittelt werden, hat bisher keine Beachtung gefunden. In der vorliegenden Arbeit werden diese Probleme adressiert, wobei aber nicht für alle eine abschliessende Lösung präsentiert werden konnte, da dies den Rahmen der Arbeit gesprengt hätte. Vielleicht ist es gerade die fehlende wissenschaftliche Durchdringung, die es so schwierig macht, geeignete Standards für die Verschlüsselung von XML-Dokumenten zu etablieren. Denn wenn man betrachtet, wie lange schon beim W3C über die Verschlüsselung diskutiert und daran gearbeitet wird, so kann es einen nur verwundern, dass nicht greifbarere Ergebnisse vorliegen. Ende Juli, also kurz vor Abschluss der vorliegenden Arbeit, ist bei Recherchen noch ein wissenschaftlich fundierteres Papier aufgetaucht, das auf einer Konferenz im Juni dieses Jahres vorgestellt wurde. Es beschreibt eine Document Security Language (DSL), die auf XSLT beruht und eine Architektur zur Verschlüsselung von XML-Dokumenten [85]. Da die Nähe zu dieser Arbeit gross ist, soll sie hier noch kurz vergleichend betrachtet werden. Die dort beschriebene Architektur und die Sprache bietet auch die Verschlüsselung auf feingranularer Ebene. Aber sie ist nicht erweiterbar und kennt auch kein generisches Meta-Daten-Konzept, so dass sie hinter den Ergebnissen der vorliegenden Arbeit deutlich zurückfällt. Zudem beruht sie auf der vorne schon im Zusammenhang mit der Verwendung von XSLT kritisierten Arbeit in [48]. Sie trägt dazu im Bereich der Verschlüsselung nicht viel Neues bei. Allerdings weist sie einige interessante Ansätze im Bereich der Infrastrukturen auf [85, Abschnitt 3.2]. Um diese könnte die hier vorgestellte Architektur der Verschlüsselungs-Prozessoren ergänzt werden, denn dieses Gebiet wurde in der Arbeit ausgespart.
Diese Arbeit befasst sich mit der Zerlegung von Irrfahrten und Lévy Prozessen an ihrem Minimum. Bis auf rudimentäre Vorkenntnisse der höheren Stochastik und einige wenige aber wichtige Sätze stellt die Arbeit alle notwendigen Begriffe und Sätze zur Verfügung, die für das Verständnis und die Beweise benötigt werden. Diese bewusste Entscheidung zur Ausführlichkeit auch bei grundlegenden Dingen hat zwei Hintergründe: Zum einen bleibt die Arbeit damit auch für Leser mit geringen Vorkenntnissen interessant, und zum anderen entsteht so keine lange und unübersichtliche Kette von Verweisen und Zitaten, die das Verständnis des dargestellten Themas erschwert und die logischen Schlüsse nur noch von Spezialisten vollständig nachvollzogen werden können. Ein weiterer Nebeneffekt ist die Tatsache, dass Verwirrungen aufgrund unterschiedlicher Interpretationen eines Begriffs vermieden werden. Das weitere Vorwort teilt sich in zwei Abschnitte; zum einen in den Abschnitt der Irrfahrten und zum anderen in den Abschnitt der Lévy-Prozesse. Diese Einteilung spiegelt auch die Strukturierung der Arbeit selber wieder; ein Blick in das Inhaltsverzeichnis verrät, dass zuerst Irrfahrten und danach Lévy Prozesse behandelt werden.
Durch Prozessverbesserungen ist es möglich, den Ressourcenverbrauch einer Unternehmung zu reduzieren, ohne an den Eigenschaften des erstellten Gutes Abstriche vornehmen zu müssen. Intuitiv ist ersichtlich, dass eine bessere Ausnutzung der vorhandenen Ressourcen vorteilhaft für die Unternehmung ist. Mit dem Übergang zur Informationsgesellschaft stellt sich die Frage, inwiefern traditionelle Verfahren zur Prozessverbesserung sich auf die immer bedeutender werdende Ressource „Wissen“ anwenden lassen. Hat Wissen in Verfahren zur Erstellung physischer Güter noch eine nur unterstützende Funktion, so stellt es in Branchen, deren Focus in der Entwicklung von Wissen liegt, den wichtigsten „Produktionsfaktor“ dar. In vorliegendem Text wird der Versuch unternommen, bekannte Verfahren zur Qualitätsverbesserung von Prozessen dahingehend zu betrachten, inwieweit sie für eine Anwendung auf den Umgang mit Wissen geeignet sind. Dazu erfolgt eine Darstellung grundlegender Begriffe, gefolgt von Kriterien, anhand derer die Qualität von Wissensprozessen beurteilt werden kann. Danach werden verschiedene Qualitätsverbesserungsverfahren dargestellt und ihre Eignung zur Anwendung auf Wissensprozesse beurteilt. Abschließend findet sich ein Ausblick darauf, in welchen Gebieten weitere Überlegungen zu diesem Thema angebracht sind. Hingewiesen werden muss auf dem Umstand, dass vorliegende Arbeit aus Platzgründen einige mehr oder minder starke Reduzierungen enthält. Bekannte Qualitätsverbesserungsverfahren wurden in verschiedene Kategorien eingeteilt, aus diesen Kategorien wurden dann exemplarisch einige Verfahren für die nähere Betrachtung ausgewählt. Einen Anspruch auf Vollständigkeit erhebt der vorliegende Text somit nicht. Auch die Kategorisierung kann nicht als allgemeingültig angesehen werden, da die meisten Qualitätsverbesserungsverfahren starke Unterschiede aufweisen und somit das Einordnen in ein einheitliches Schema erschweren. Dennoch wurden gemeinsame Merkmale identifiziert und zur Bildung von Kategorien verwandt.
Im Rahmen der vorliegenden Arbeit wird eine systematische Untersuchung von Feldabschirmungseffekten bei Photostrommessungen in Abhängigkeit der optischen Anregungsdichte an GaAs/AlGaAs{Halbleiterubergitterstrukturen vorgenommen. Diese Untersuchungen gestatten es, Kontaktierungsmethoden zu finden, um das elektrische Feld innerhalb der Übergitterstruktur definiert einzustellen. Diese Untersuchungen waren notwendig geworden, da sowohl erste zeitaufgelöste (z.B. die THz-Emission von Bloch-Oszillationen), wie auch verschiedene nicht zeitaufgelöste Messungen (z.B. differentielle Elektroreflexionsmessungen) nahelegten, daß in der Probe kein elektrisches Feld einzustellen war. Die Untersuchungen zur anregungsdichteabhangigen Feldabschirmung wurden in einem Photostromaufbau durchgeführt, bei dem die Anregungsdichte durch die Verwendung eines abstimmbaren CW-Ti:Saphir Laser gegenüber Aufbauten mit einer Kombination aus Lampe und Monochromator weiter gesteigert werden kann. Als Indikator für die Feldabschirmung dient die Herausbildung der Wannier-Stark-Leiter in den Photostromspektren. Zur Untersuchung der Feldabschirmung wurde zunächst die Probenpraparation verändert. Anschließend wurde die Anregungsdichte systematisch variiert und es wurden verschiedene Probenstrukturen untersucht, unter anderem zum Vergleich mit den hier pin-Übergitter Dioden auch eine häufig verwendete Schottky-Diode. Es wurden verschiedene präparative Variationen durchgeführt, um den Einfluß der dotierten Schichten zu klären. So wurde beispielsweise die p+-Schicht heruntergeätzt, oder auf die p+-Schicht eine zusätzliche metallische semitransparente Cr/Au-Schicht aufgedampft, sowie Proben mit verschiedenen Dotierungsmaterialien (Berylium und Kohlenstoff) untersucht. Alle betrachteten Proben zeigen bei niedrigen Anregungsdichten eine Aufspaltung in Wannier-Stark-Zustände. Die Absorptionslinien, die in den Spektren die Übergänge darstellen, werden dann bei steigender Anregungsdichte zunächst asymmetrisch, treten erst bei niedrigeren äußeren Vorspannungen auf und verschwinden schließlich für sehr hohe Dichten ganz. Eine Analyse der systematischen Untersuchungen für die verschiedenen Probentypen ergibt, daß sich höchstwahrscheinlich Ladungstrager in der p+-Schicht ansammeln und so das äußere elektrische Feld abschirmen. Zusätzlich zeigt im Vergleich der zwei Dotierungsmaterialien die mit Kohlenstoff dotierte Probe eine bei deutlich höheren Anregungsdichten einsetzende Abschirmung gegenüber der mit Berylium dotierten Probe. Die konsequente Umsetzung der gewonnenen Erfahrungen führt zu einem neuen Probendesign. Die Vermeidung p+-dotierter Schichten, wobei die Proben nur mit einer semitransparenten Cr/Au-Schicht bedampft werden, hat dazu geführt, daß es schließlich möglich war, die kohärente Emission von Bloch-Oszillationen unter 45 ° zu messen. Weiterhin war es auch möglich, erste Messungen zur kohärenten Detektion der direkten Emission von Bloch-Oszillationen in einem Magnetfeld zu realisieren, diese Messungen werden daher nur kurz dargestellt. Je nach Feldstarke des elektrischen und des magnetischen Feldes wird die Emission der Bloch-Oszillationen durch die magnetische oder elektrische Quantisierung dominiert. In Vorbereitung auf zeitaufgelöste Messungen wurde im Rahmen dieser Arbeit zusätzlich auch ein neuer dichroitischer Strahlteiler verwendet und charakterisiert. Ein Indium-Zinn-Oxid-Film auf einem Glassubstrat ist im optischen Frequenzbereich transparent, besitzt aber im niedrigen THz-Frequenzbereich (0 bis 2.5 THz) eine relative Reflexion von 90% bis 80% und eine relative Transmission von konstant etwa 10% und kann somit als Alternative zu dem sonst häufig verwendeten Folien-Strahlteiler verwendet werden. Der komplexe Brechungsindex ñ kann numerisch aus den Reflexions- bzw. Transmissionsdaten bestimmt werden.