Refine
Year of publication
Document Type
- Diploma Thesis (114) (remove)
Language
- German (114) (remove)
Has Fulltext
- yes (114)
Is part of the Bibliography
- no (114) (remove)
Keywords
- Agentieller Realismus (1)
- Akteur-Netzwerk-Theorie (1)
- Algebra (1)
- Algebraische Gleichung (1)
- Analyse von Algorithmen (1)
- Atom (1)
- BMRT (1)
- BRDF (1)
- BTF (1)
- Barad, Karen (1)
Institute
- Informatik (46)
- Physik (30)
- Biowissenschaften (10)
- Geowissenschaften (8)
- Mathematik (7)
- Gesellschaftswissenschaften (3)
- Biochemie und Chemie (2)
- Erziehungswissenschaften (2)
- Psychologie (2)
- Wirtschaftswissenschaften (2)
Visualisierung von E-Mail-Traffic mit Schwerpunkt auf eine inhaltliche Analyse von Wortmustern
(2010)
E-Mail hat sich zu einem sehr wichtigen Kommunikationsmittel entwickelt, leidet aber aktuell unter einer massiven Verbreitung unerwünschter und unverlangter Inhalte. Diese können für einen Anwender nicht nur lästig sein, sondern auch die vorhandene Netz- und Speicher-Infrastruktur enorm belasten.
Die Notwendigkeit einer Filterung des E-Mail-Traffic hat zu einer Reihe recht unterschiedlicher Methoden geführt, die computergesteuert eine E-Mail auf ihren Spam-Gehalt untersuchen.
Die Motivation hinter dieser Arbeit ist zu prüfen, ob die besonderen Eigenschaften der visuellen Wahrnehmung eines Menschen als unterstützendes Mittel eingesetzt werden können, um E-Mail-Inhalte zu überprüfen und eventuell vorhandene Wort-Muster, die auf Spam deuten, sichtbar zu machen.
Um dieses Ziel zu erreichen musste zuerst eine geeignete Auswahl spamspezifischer Merkmale getroffen werden. Danach wurden Methoden des Text Minings angewendet, um aus dem Inhalt einer E-Mail strukturierte Daten zu gewinnen, die sich zur Repräsentation einer Nachricht eignen und als Grundlage für eine Visualisierung herangezogen werden können. Basierend auf den vorab ausgewählten Spam-Charakteristika wurdenWorteigenschaften mit Hilfe extern angebundener Wortlisten, regulärer Ausdrücke und unter Einsatz eines Wörterbuches überprüft, und die erhaltenen Ergebnisse flossen neben einer einfachen Gewichtung von Worthäufigkeiten in Form einer anwendungsspezifischen Gewichtung mit ein.
Es wurden anschließend zwei verschiedene Sichten konzipiert, um einem Anwender einen Einblick in die extrahierten Daten zu ermöglichen. Es hat sich herausgestellt, dass besonders Treemaps geeignet sind um die anfallenden Datenmengen kompakt abzubilden, aber gleichzeitig einen notwendigen Detailgrad auf einzelne Worteigenschaften gewährleisten.
Das Konzept wurde prototypisch unter Verwendung des Mailservers Mercury/32 sowie einer MySQL-Datenbank implementiert und konnte teilweise aufzeigen, dass es anhand der von der Engine generierten Strukturen möglich ist, spamspezifische Merkmale einer E-Mail unter Verwendung der gewählten Visualisierungstechniken auf eine Weise sichtbar zu machen, die einem Anwender eine Mustererkennung erlauben.
Die Diplomarbeit wurde als Gemeinschaftsarbeit angefertigt und konnte sinnvoll in zwei Bereiche aufgeteilt werden: Die Engine und die Visualisierung. Die konzeptuellen Überlegungen für das Thema sind größtenteils gemeinsam erfolgt, jedoch liegt der Schwerpunkt von Pouneh Khayat Pour im Bereich der Analyse und der von Yvonne Neidert in der Visualisierung.
In dieser Arbeit wurde das Verhalten von repulsiv gebundenen Teilchenpaaren (Dimeren) in eindimensionalen optischen Gittern untersucht. Repulsiv gebundene Teilchenpaare sind metastabile Zustände, die nicht im freien Raum, dafür aber in geordneten Potentialen, wie optische Gitter sie darstellen, vorkommen können. In einem analytischen Teil beschäftigten wir uns mit der Herleitung effektiver Hamiltonians für Dimersysteme. Diese wurden dann unter Verwendung des Time Evolving Block Decimation-Algorithmus (TEBD) numerisch untersucht...
Struktur-Funktionsbeziehungen des Verpackungschaperons Gsf2 in der Hefe Saccharomyces cerevisiae
(2007)
Im Rahmen der vorliegenden Arbeit wurde die Funktion des in der Membran des Endoplasmatischen Retikulum lokalisierten Proteins Gsf2 der Hefe Saccharomyces cerevisiae näher charakterisiert. Gsf2 ist ein 46 kDa großes ER-Transmembranprotein mit zwei membrandurchspannenden Domänen, wobei C- und N-Terminus cytosolisch orientiert sind. Zudem besitzt Gsf2 C-terminal ein klassisches Dilysin-Motiv. Eine Deletion des GSF2-Gens resultiert in einer Retention der Hexosetransporter Hxt1, Hxt3 und Gal2 im ER, so dass es sich bei Gsf2 möglicherweise um ein Hexosetransporterspezifisches Verpackungschaperon handelt.
Um Sequenzbereiche zu determinieren, die für die Funktion des Verpackungschaperons bezüglich der Reifung und des ER-Transportes von Hxt1 notwendig sind, wurden verkürzte Versionen des Gsf2-Proteins hergestellt. Die funktionelle Analyse zahlreicher verkürzter Versionen ergab die Lokalisation eines essentiellen Sequenzbereiches in den hinteren 40 Aminosäuren der carboxyterminalen Domäne des Gsf2-Proteins.
Vorläufige genetische und biochemische Untersuchungen hatten ergeben, dass Gsf2 mit Komponenten der Ribosomen, des Sec61-Translokationsapparates und mit Proteinen der COPII-Vesikel interagiert.
Mit Hilfe des Split-Ubiquitin Systems konnte in der vorliegenden Arbeit eine direkte Interaktion zwischen Gsf2 und dem Sec61-Translokations-Komplex und den Komponenten des sekretorischen Weges Sec12 und Sar1 bestimmt werden. Sec12 ist ein Sar1-spezifischer Guanin-Nucleotid-Austausch-Faktor, der für die Aktivierung von Sar1 benötigt wird. Sar1 ist ein kleines G-Protein, welches für die Initiation der COPII-Vesikelbildung benötigt wird. Sar1 ist aber auch für die Erkennung di-basische ER-Exportsignale spezifischer Cargo-Proteine zuständig. Diese Interaktion weist daraufhin, dass Gsf2 über solch ein Motiv verfügt und somit die Verpackung von Hxt1 in COPII-Vesikel gewährleisten könnte.
Postuliert wird ein Modell, wonach Gsf2 bereits eine wichtige Funktion bei der Translokation des Hexosetransporter Hxt1 in die ER-Membran übernimmt. Dabei interagiert Gsf2 mit dem Sec61-Translokon, um den Reifungsprozess der naszierenden Polypeptidkette des Metabolittransporters zu ermöglichen. Anschließend rekrutiert Gsf2 das gefaltete Proteine an Exit-Sites des Endoplasmatischen Retikulums. Es interagiert dort mit Sec12 und Sar1, so dass Gsf2 zusammen mit dem Hexosetransporter in die COPII-Vesikel verpackt und zum Golgi-Apparat transportiert wird. Aufgrund des ERRetentionssignals wird Gsf2 über COPI-Vesikel recycelt.
Dieses Modell impliziert, dass Hxt1 über kein ER-Exportsignal verfügt und daher Gsf2 als guide eine ausschlaggebende Funktion bei dessen Translokation übernimmt.
Die Hefe Saccharomyces cerevisiae hat sich wie kaum ein anderer Organismus auf die Verwertung von Glukose spezialisiert. Die Aufnahme dieser Hexose stellt dabei den ersten Schritt der Metabolisierung dar. Saccharomyces cerevisiae besitzt hierfür eine große Zahl an Hexosetransportern und eignet sich daher gut zur Untersuchung der Wirkungsweise und Regulation dieser Transporter, sowie deren Translokation zur Plasmamembran.
Ziel der vorliegenden Arbeit war es, die Funktion des in der Membran des Endoplasmatischen Retikulums lokalisierten Proteins Gsf2 der Hefe Saccharomyces cerevisiae näher zu charakterisieren. Gsf2 ist an der Translokation der Hexosetransporter Hxt1, Hxt3 und Gal2 zur Plasmamembran beteiligt. Die Deletion von GSF2 führt zur Akkumulation dieser Transporter in der Membran des Endoplasmatischen Retikulums. Interaktionen von Gsf2 mit ribosomalen Proteinen, Komponenten der Translokationsmaschinerie und COPII-Hüllproteinen deuten auf eine multifunktionelle Hexosetransporterspezifische Funktion des Verpackungschaperons Gsf2 hin.
Mit Hilfe des „Synthetic Genetic Arrays“ wurde nach synthetisch letalen und synthetisch kranken Interaktionspartnern von GSF2 gesucht, die zur Aufklärung der Funktion von GSF2 beitragen beziehungsweise bisherige Forschungsergebnisse verifizieren sollten. Unter den nicht-essentiellen Genen der Hefe konnte allerdings kein synthetisch letaler oder synthetisch kranker Interaktionspartner von GSF2 ermittelt werden.
Im zweiten Projekt sollten Multicopy-Suppressoren aus einer Genbank identifiziert werden, die in der Lage sind die Deletion von GSF2 und damit verbundene Retention von Hxt1 in der Membran des Endoplasmatischen Retikulums zu komplementieren. Mit Hilfe dieses Screenings konnten einzig GSF2-kodierende Plasmide identifiziert werden.
Die Ergebnisse der beiden genetischen Screening-Verfahren belegen, dass Gsf2 eine herausragende Rolle innerhalb des Translokationsprozesses von Hxt1 einnimmt.
Daphnien sind ein wichtiger Bestandteil des Süßwasserzooplanktons und in einer Vielzahl von biologischen Disziplinen als Modellorganismus etabliert. Ihr zyklisch parthenogenetischer Lebenszyklus und die hohen Raten von interspezischer Hybridisierung mancher Artkomplexe machen sie zu einem interessanten Forschungsobjekt. Die vorliegende Arbeit bietet Einblicke in die Populationsstruktur einer dieser Komplexe, des D. longispina-Artkomplexes, und testete ein neu entwickeltes Markersystem bei diesen Tieren auf gesamteuropäischer Ebene (33 Sammelorte, 1155 Individuen). Es wurden dazu molekulare Analysetechniken mit zwölf polymorphen Mikrosatelliten-Markern mit etablierten ITS-RFLP-Analysen verglichen.
Durch statistische Auswertemethoden mit den Programmen NewHybrids und Structure konnten Elternarten gut zugeordnet werden. Die Betrachtung der Kullback-Leibler Divergenzen in den Analysen durch NewHybrids deuten sogar darauf hin, dass die Anzahl der Mikrosatellitenmarker auf wenige besoders informative Loci reduziert werden kann, was bei Fragestellungen zur Art- und Hybrididentifizierung Zeit und Kosten spart. Ein Protokoll zur Vorgehensweise bei der Art- und Hybrididentifizierung wurde entwickelt.
Die Arten und Populationen selbst waren hoch differenziert. Zwischen den drei untersuchten Arten wurde ein FST von 0,29 gefunden. Ergebnisse aus einer AMOVA zeigten sogar, dass die Differenzierung zwischen den Populationen innerhalb der Arten leicht über dieser interspezifischen Differenzierung liegt (D galeata 0,40; D. longispina 0,52 und D. cucullata 0,42). Da auch keine isolation by distance gefunden wurde, lassen die Ergebnisse meiner Analysen auf „Provinzialismus“ schließen – ein Konzept, das genau dieses Muster voraussagt. Erklärt wird dieser Provinzialismus durch die Monopolisierungshypothese. Die Beobachtung, dass in der Regel in den untersuchten Populationen ein Heterozygotendefizit vorliegt, obwohl klonale Vermehrung oft zu einem Heterozygotenüberschuss führt (Meselson-Effekt), zeigt häufig vorkommende sexuelle Vermehrung an. Das Heterozygotendefizit deutet ebenfalls auf einen Wahlund-Effekt hin.
Es wurde weiterhin getestet, ob das Vorkommen von introgressiver, interspezifischer Hybridisierung in bestimmten Lokalitäten im Vergleich mit Lokalitäten, in denen ein Taxon allopatrisch lebt, einen Einfluss auf die Populationsstruktur hat. Die klonale Diversität sowie die beobachtete Heterozygotie standen dabei im Mittelpunkt der Analysen. Es wurde kein statistisch signifikanter Einfluss der Hybridisierung auf die Diversität gefunden.
Lange Zeit lag in Deutschland das Augenmerk auf der Förderung von leistungsschwachen Kindern, während in anderen Ländern wie beispielsweise Großbritannien und den USA die Förderung von Schülern mit besonderen Begabungen durch spezielle Programme eine längere Tradition besitzt. Mittlerweile besitzt das Thema Hochbegabung die Aufmerksamkeit der breiten Öffentlichkeit. Die Einsicht, dass Hochbegabte auch der Unterstützung bedürfen, setzt sich zunehmend durch. Indem sie Leitlinien formulierten, wie in den Schulen die besonderen Bedürfnisse der Hochbegabten berücksichtigt werden sollten, zeigten die Kultusministerien in den letzten Jahren, dass sie diesem Thema einen größeren Stellenwert geben als in der Vergangenheit (siehe Holling, H., 2001; Holling, H., Preckel, F., Vock, M. & Schulze Willbrenning, B., 2004). Nicht jeder, der ein großes Talent besitzt, ist auch in der Lage, dieses in hohe Leistung umzuwandeln. Zunächst muss erkannt werden, dass dieses Talent vorhanden ist; danach müssen geeignete Maßnahmen gefunden werden, wie diese hohe Begabung gefördert werden kann. Denn obwohl ein Großteil der hochbegabten Kinder zu den besseren Schülern in der Klasse zählt, schöpfen sie ihr Potenzial meist nicht aus. Kaum einer der Hochbegabten entspricht dem Bild eines gestörten Genies, wie es in den Köpfen vieler Menschen zu finden ist. Die empirische Forschung zeigt, dass hochbegabte Schüler nicht häufiger verhaltensauffällig sind als durchschnittlich begabte Schüler. Diese Arbeit stellt den aktuellen Forschungsstand zum Thema Hochbegabung in der Bundesrepublik Deutschland dar.
7 Zusammenfassung und Ausblick 7.1 Synthese des PNA-Bausteine Primäres Ziel der Diplomarbeit war die Synthese von 6-Aminochinolin-2(1H)-on (3) und dessen Kupplung über die Carbonsäure (4) mit dem PNA-Grundgerüst (6). ... Das Chinolin (3) wurde durch eine dreistufige Synthese aus para-Phenylendiamin (2) erhalten und als Pikrat gefällt. Über eine Ionenaustauschsäule wurde das Hydrochlorid des Chinolins (3b) gewonnen. Durch Charakterisierung des RNA-Liganden mittels FRET konnte ein IC50-Wert des Chinolin Hydrochlorids (3b) von 46 μmol ermittelt werden. Das kupplungsfähige Essigsäurederivat (4) wurde über den tert-Butylesters (87) des Chinolins (3) gewonnen. ... Die literaturbekannte zweistufige Synthese des PNA-Rückgrats (5) geht vom Ethylendiamin ... 7.2 Synthese des PNA-Monomers Das Ziel die Synthese des PNA-Monomers (6), konnte durch Kupplung des Essigsäurederivats (4) und des PNA-Rückgrats (5) mittels DIC/HOBt erreicht werden. ... Das PNA-Monomer sollte in weiterführenden Arbeiten durch kombinatorische Chemie in ein Tripeptid eingebaut werden. Dazu wäre es jedoch notwendig, die tert-Butyl-Schutzgruppe durch Säurezugabe abzuspalten, um die Carbonsäure (88) zu erhalten, die als PNA-Monomer in ein Tripeptid eingebaut werden kann. Es wurde jedoch eine Zersetzung des PNA-Monomers in das Hydrochlorid des Chinolins (3b) und zwei Fragmenten des Fmoc-geschützten Grundgerüsts nachgewiesen. 7.3 Alternative Methoden ... Auf einem anderen Weg konnte das Anhydrid (8) aus Ethylendiamin (9) in vier Syntheseschritten dargestellt werden, das mit dem Chinolin (3) gekuppelt werden konnte. Die resultierende Carbonsäure (10) wurde durch weiterführende Arbeiten in ein Tripeptid eingebaut. Nach der Abspaltung vom Harz und der Entschützung des Tripeptids fand eine intramolekulare Cyclisierung statt, wobei das Chinolin (3) als Abgangsgruppe nachgewiesen wurde. In nachfolgenden Arbeiten sollten die Eigenschaften von Iminochinolin (93) als RNA-Ligand bestimmt werden. Der Syntheseweg sollte über eine dreistufige Synthese vom Chinolin (3) ausgehend zum Iminochinolin (93) führen. Es konnte im Rahmen dieser Arbeit gezeigt werden, dass der erste Schritt, die Darstellung des Chlorochinolins (91), gelingt. 7.4 Ausblick Das erwähnte Iminochinolin (93) sollte in nachfolgenden Arbeiten ebenfalls auf seine Eigenschaft als RNA-Ligand untersucht werden. Die PNA-Monomere ließen sich nur mit geringen Ausbeuten kuppeln. In der Literatur zur Darstellung von PNA-Monomeren werden unterschiedliche Kupplungsreagenzien, wie EDC/HOBt, BOP/HOBt, TOTU oder PyBOP, für die PNA-Grundgerüste angegeben. Um bessere Ausbeuten zu erreichen, ist eine systematische Untersuchung der optimalen Kupplungsbedingungen vorzunehmen. Um die Zersetzung des PNA-Monomers (6) bei der Abspaltung der tert-Butylschutzgruppe zu verhindern, ist nach alternativen PNA-Rückgraden zu suchen. Methyl- oder Ethylester statt tert-Butylester wären durch Verseifung mit Natriumhydroxid in einem Wasser/Dioxan-Gemisch in das jeweilige Carboxylat zu überführen. Aufgrund der niedrigen Ausbeute des Tripeptids (4)-(D)Arg-(D)-Arg-CO-NH2 (96) soll versucht werden die Kupplungsausbeute durch Vermeidung möglicher Nebenreaktionen zu erhöhen. Eine mögliche Nebenreaktion ist die Cyclisierung der zu kuppelnden Carbonsäure (4) mit einer weiteren Carbonsäure (4), die vermieden werden kann durch die Einführung einer Boc-Schutzgruppe am sekundären Amin. Eine Kupplung mit der Boc-geschützten Carbonsäure (97) verspricht bessere Kupplungsausbeuten. ... In vorangegangenen Arbeiten[74][75] konnten das Lactam (98) mittels Heck- oder Suzuki-Reaktion nicht an das Vinylglycinderivat (99) gekuppelt werden. ... Als alternative Kupplungsmethode wird gerade in einer Doktorarbeit die „chiral pool“- Synthese mit Glutaminsäure (101) untersucht, die in die halogenierte Spezies (102) überführt werden soll. Die Kreuzkupplungsreaktion erfolgt durch eine Fe(acac)3 vermittelte Grignard-Reaktion...
Ulrike Anders hat zwischen Januar und September 2005 Zähne und Gebiß rezenter Schleichkatzen (Viverridae) untersucht und Parameter identifiziert, anhand derer sich Nahrungspräferenzen zuordnen lassen. Viverriden gelten als basale Carnivoren mit omnivorem Nahrungsspektrum. Da die für echte Katzen so typische Brechschere und die Reduktion des Gebisses nur wenig ausgeprägt ist, gilt ihr Gebiss als unspezialisiert. Dennoch besitzen Viverriden Nahrungspräferenzen, die sich in der Umgestaltung ihres Gebisses, auch in einzelnen Zahnpositionen niederschlägt. Diese Veränderungen wurden metrisch charakterisiert.
Sandra Engels hat zwischen August 2006 und Juni 2007 Schädel und Gebiß südostasiatischer Ursiden im Hinblick auf Ernährungspräferenzen rekonstruiert. Obwohl die Ursiden systematisch zur Ordnung der Carnivora gehören, verfolgen ihre Vertreter völlig unterschiedliche Ernährungsstrategien. Darunter sind spezialisierte Herbivoren genauso vertreten wie Carnivoren und Omnivoren. Ziel der Arbeit von Sandra Engels war es, anhand der unterschiedlichen Ernährungsregime, Parameter an Schädel, Gebiss und Einzelzähnen rezenter Tiere festzulegen und diese dann auf fossiles Material anzuwenden.
Diese Diplomarbeit behandelt eine Fragestellung aus dem Gebiet der Fuchsschen Gruppen. Das Problem, das hier geklärt werden soll, entspringt einer im Jahre 2005 erschienenen Arbeit über Konjugatoren Fuchsscher Gruppen und quasiplatonische Riemannsche Flächen von Jürgen Wolfart und Ernesto Girondo [GW05]. Es ist dort ein alternativer geometrischer Weg gewählt worden, um es zu umgehen, und es soll nun hier mit den bereits 1970 bereitgestellten Methoden zur Fragestellung der Existenz von Untergruppen Fuchsscher Gruppen von David Singerman [SIN70] gelöst werden. Betrachtet man eine Dreiecksgruppe $Delta_{1}$ als Untergruppe einer Dreiecksgruppe $Delta_{2}$, so kann es vorkommen, dass diese Inklusion eine Verfeinerung durch eine dazwischenliegende Dreiecksgruppe $Delta$ gestattet. In den Fällen, in denen zu einer gegebenen Dreiecksgruppe $Delta_{2}$ voneinander verschiedene Untergruppen gleicher Signatur $Delta_{1},Delta_{1}Apostroph,...$ existieren, ist es nicht a priori klar, dass es eine dazwischenliegende Dreiecksgruppe $Delta,DeltaApostroph,...$ gleicher Signatur zu jeder dieser verschiedenen Untergruppen gibt. Das Ziel dieser Arbeit ist es nun, dies zu klären, d.h. zu zeigen, dass es für jedes Paar Dreiecksgruppen $Delta_{1}subseteqDelta_{2},Delta_{1}ApostrophsubseteqDelta_{2},...$ eine dazwischenliegende Dreiecksgruppe $Delta,DeltaApostroph,...$ gibt. Im ersten Teil dieser Arbeit wird eine grobe Einleitung in die Theorie der Diskontinuierlichen Gruppen gegeben, die sehr stark auf Fuchssche Gruppen abzielt und mit deren Verbindung zu Riemannschen Flächen abschließt. Sie orientiert sich sehr stark an einem Standardwerk über Diskontinuierliche Gruppen von Joseph Lehner [LEH64]. Im zweiten Teil dieser Arbeit widmen wir uns ganz den Untergruppen Fuchsscher Gruppen und dem von David Singerman [SIN70] bereitgestellten Apparat, der eine notwendige und hinreichende Bedingung hierfür aufzeigt. Wie David Singerman auch zeigt, lassen sich diese Methoden für Normalteiler und Dreiecksgruppen spezialisieren. Wir werden uns dem auch annehmen. Abschließend erarbeiten wir dann eine ausführliche Methode und somit auch einen Beweis zur Erlangung der kompletten Liste von Inklusionen Fuchsscher Dreiecksgruppen, wie sie sich in einer weiteren Arbeit David Singermans befindet [SIN72]. Dies geschieht mit Hilfe zweier Maple-Programme deren Quellcode und Ausgabe sich im Anhang bzw. vierten Teil dieser Arbeit zur Einsicht bendet. Im dritten Teil dieser Arbeit wird schließlich die oben erläuterte Fragestellung geklärt werden. Sie wird zunächst anhand vieler Beispiele und Erläuterungen verdeutlicht, und im Anschluss dessen eine mögliche Verallgemeinerung auf Fuchssche Gruppen diskutiert.
Julia Hansen hat zwischen März und Dezember 2006 Untersuchungen zu Funktion und Struktur der Okklusalflächen in der postcaninen Zahnreihe von Viverriden durchgeführt. Unter verschiedenen Ernährungsregimen bilden Höcker und Täler auf Zähnen, die sich im Gebiss gegenüber stehen, eine Funktionseinheit, mit der Schleichkatzen sowohl in der Lage sind, Früchte zu zerquetschen, als auch den Panzer von Insekten aufzuknacken. In ihrer Studie ist es Frau Hansen gelungen, konstruktive Unterschiede zwischen beiden Nutzungsweisen zu identifizieren. Diese Unterschiede hat sie an verschiedenen fossilen Einzelzähnen der Sammlung Koenigswald überprüft.
Die vorliegende Arbeit umfasst die Rekonstruktion der Körpermasse pleistozäner Cerviden in Java. Zunächst wird ein Rezentmodell erstellt, das den Zusammenhang zwischen Körpermasse und dem jeweiligen Messparameter aufzeigt. Die daraus resultierenden Regressionsgleichungen werden für die Rekonstruktion verwendet. Das fossile dentale und postcraniale Material wird vermessen und die Körpermasse für jedes einzelne Stück rekonstruiert. Die absoluten Werte werden in Körpermassenklassen eingeteilt, um einen Wert unabhängig vom physiologischen Zustand zu erhalten. Die Körpermassen werden, soweit möglich, getrennt nach Gattungen rekonstruiert. Ein Vergleich zeigt, dass es deutliche Unterschiede in der Körpermasse der Gattungen Axis und Muntiacus im Vergleich zu Cervus gibt. Bei der Einteilung in Klassen fällt auf, dass die Klassen 3a (10 kg bis 20 kg) und 3b (20 kg bis 50 kg) ausschließlich von Axis und zu einem kleinen Teil von Muntiacus besetzt werden. Die Klassen 4a und 4b ausschließlich von Cervus. Die einzige von Axis und Cervus besetzte Klasse ist 3c (50 kg bis 100 kg). Anhand dieser aus den Fossilien der Dubois Sammlung gewonnenen Erkenntnisse können nun die Fossilien der von Koenigswald Sammlung beurteilt werden, da diese nicht auf Gattungsniveau bestimmt sind. In beiden Sammlungen liegt der höchste Prozentsatz in der Klasse 3b. Daraus kann man schließen, dass sehr viele Tiere der Gattung Axis vorhanden sind. Die Gattung Cervus hingegen ist nur zu einem recht geringen Prozentsatz vertreten. Diese Verteilung spiegelt sich auch in der Untersuchung der Fundstellen wider. An nur drei der acht untersuchten Fundstellen wurden Tiere der Gattung Cervus gefunden. Ein Vergleich der Körpermassen ergibt keinen signifikanten Unterschied zwischen diesen. Innerhalb der Axis-Hirsche kann man einen Körpermassenunterschied erkennen, der jedoch nicht mit der geographischen Lage der Fundstellen begründet werden kann. Die Untersuchung der Fundstellen aufgrund ihrer Chronologie ergibt keinen signifikanten Unterschied zwischen den Faunenleveln Trinil H.K. und Kedung Brubus. Jedoch ist innerhalb der Faunenlevel eine deutliche Variationsbreite der Körpermasse zu erkennen, welche auf das an den einzelnen Fundstellen herrschende Habitat zurückgeführt werden kann. Die Zuordnung der bisher nicht datierten Fundstellen in die Faunenlevel ist alleine aufgrund der rekonstruierten Körpermassen nicht möglich, jedoch können erste Aussagen über das umgebende Habitat getroffen werden.
Die vorliegende Arbeit umfasst die Rekonstruktion der Körpermasse pleistozäner Rhinocerotidae in Europa und Südost-Asien , hier speziell der Insel Java. Methodisch wird dieses Ziel durch lineare Regressionen nach Janis (1990) verfolgt. Zunächst wird ein Rezentmodell erstellt, das es ermöglicht Körpermasse mit verschiedenen Zahnparametern in Zusammenhang zu bringen. Die aus dem Rezentmodell resultierenden Regressionsgleichungen für jeden Zahn werden dann für die Rekonstruktion fossiler Körpermassen verwendet. Das fossile Zahnmaterial wurde vermessen und die Körpermassen für alle Zahnparameter errechnet. Um einen Vergleich mit veröffentlichten Werten zu ermöglichen, wurde die Körpermasse gleichfalls nach Legendre (1986) ermittelt, welcher eine Formel zur Körpermassenrekonstruktion entwickelte, die heute allgemein Verwendung findet. Um die oftmals sehr großen Schwankungen in der Körpermasse, verursacht durch Ernährungs- und Gesundheitszustand eines Tieres abzufedern, sind die absoluten Werte in Körpermassenklassen eingeteilt. Die ermittelten Körpermassen wurden dann in verschiedenen Zusammenhängen betrachtet und, soweit möglich , Aussagen über Gründe für Veranderungen oder Unterschiede zwischen Messstrecken, Zeiträumen, Habitaten oder auch Spezies genannt.
Die vorliegende Studie dient als Basis einer neuen, zuverlässigen Populationsschätzung von Wildschweinen (Sus scrofa). Nach dem hier entwickelten Feldprotokoll soll Wildschweinkot in ausreichenden Mengen, ausreichend guter Qualität und nicht-invasiv gewonnen werden. Die daraus gewonnen Gewebeproben dienen anschließend als DNS-Quelle für individuelle Erkennung und Markierung der beprobten Tiere. Durch Kenntnis des zum Kot gehörigen Tieres lässt sich ein Fang-Wiederfang-Verfahren simulieren. Ein Sammelverfahren, gegliedert in zwei identische Blöcke zu je sechs Tagen, kombiniert aus Strip-Transekt-Sampling (Buckland 2001) und Adaptive-Sampling (Thompson 1991) führte hierbei zum besten Resultat von 0,48 Funden je abgesuchten Kilometer und 1,04 Funden je aufgewendeter Stunde. Die Untersuchung fand auf einem bewaldeten etwa 40 km2 großen Areal im Pfälzerwald, südlich von Kaiserslautern - südliches Rheinland-Pfalz – statt. Im Rahmen der Untersuchung wurden 1605 km abgesucht und vier verschiedene Transektmodelle getestet. Insgesamt wurden hierbei 268 Kothaufen erfasst, die zusätzlich auf ihre physischen Eigenschaften (Kotgröße, Härtegrad, Konsistenz, Insektenbefall), Lage im Gelände (Verteilung auf Laub-, Nadel- und Mischwälder, sowie auf Geländeneigung, Exposition und Höhenlage) und räumliche Verteilung im Untersuchungsgebiet analysiert wurden. Die Untersuchungen fanden zu verschieden Jahreszeiten (Sommer, Herbst und Winter) statt. Als geeigneter Zeitraum für eine solche Kotsammlung hat sich der Winter herausgestellt, aufgrund der längeren Zersetzungszeit des Kots und der durch den Laubfall bedingten, besseren Sichtverhältnisse. Bei ausreichender Stichprobenzahl des Kots hat es sich zu dem ergeben, dass Rückschlüsse auf die Habitatnutzung des Schwarzwilds anhand der Kotverteilung machbar sind. Eine Interpretation der Populationsstruktur anhand der Kotgröße ist in Ansätzen erkennbar. Ein Vergleich mit den gängigen Bestandesschätzverfahren durch Jagdstrecken und Kotzählungen bestätigt die Tauglichkeit des Feldprotokolls zur Beschaffung von Wildschweinkotmengen, die der Population entsprechen. In zwei von vier Versuchsansätzen konnten entsprechende Kotmengen erfasst werden.
Das Bumpmapping-Verfahren, eine Methode zur realistischen Darstellung rauer Oberflächen, existiert schon seit 30 Jahren, aber erst durch aktuelle Entwicklungen der Hardware lässt es sich in Echtzeitumgebungen einsetzen. Die aktuellen Verfahren ermöglichen viele darüber hinausgehende Effekte, jedoch haben sie auch mit Problemen zu kämpfen. Das Ziel dieser Diplomarbeit ist die Weiterentwicklung der Verfahren zu betrachten. In dieser Arbeit werden die Grenzen der aktuellen Bumpmapping-Algorithmen aufgezeigt und nach neuen Wegen geforscht. Das erste Verfahren erzeugt durch ein Multipassrendern fraktale Landschaften im Shader. Die darin verwendeten Methoden lassen sich für einen weiteren Algorithmus nutzen, mit dem feine Unebenheiten der Oberfläche an jedem Pixel ausgewertet werden. So können anisotrope Materialien wie gebürstete Metalle oder Mikropartikellacke simuliert werden. Den Abschluss bilden zwei neue Verfahren für prozedurale Shader. Die zu imitierende Oberfläche wird im Modell nachgebildet und per Raytracing für jeden Oberflächenpixel ausgewertet. Durch diese Methode werden viele Probleme texturbasierter Verfahren komplett umgangen.
Im Rahmen dieser Diplomarbeit wurde ein Konzept zur Extraktion von semantischen Informationen aus Wiki-Systemen entwickelt. Ausgangspunkt ist die Tatsache, dass in einem Wiki-System eine Reihe von Informationen in strukturierten, semi-strukturierten oder unstrukturierten Texten vorliegen, deren Semantik nicht immer auf den ersten Blick ersichtlich ist. Daher umfasste die Analyse zum einen, welche Informationen explizit und welche implizit vorhanden sind und zum anderen, welche Beziehungen sich aus den gefundenen Informationen ableiten lassen. Dabei handelt es sich beispielsweise um Beziehungen zwischen verschiedenen Seiten oder um Beziehungen zwischen Wörtern. Hierfür wurde eine Schablone definiert, die jede Information, die extrahiert werden kann, im Detail beschreibt. Dies beinhaltet sowohl die Semantik und die Datenquelle, aus der die Informationen extrahiert werden können, als auch eine Anleitung zur Extraktion und die abschließende Darstellung als XML-Element. Da aber nicht jede Information und deren Semantik sicher ist, wird zwischen sicheren und unsicheren Informationen unterschieden. Die Analyse hat allerdings ergeben, dass es eine Reihe an Informationen gibt, denen nicht automatisch eine Semantik zugewiesen werden kann. Außerdem wurden die Gemeinsamkeiten und Unterschiede der verschiedenen Wiki-Systeme analysiert, die für die Entwicklung des Konzeptes notwendig waren. Im Konzept ist die Gesamtarchitektur zur Extraktion von semantischen Informationen enthalten. Zwei Hauptsystemkomponenten waren hierfür notwendig: Wrapper und Mediator. Aufgrund der Unterschiede der Wiki-Systeme, wie beispielsweise die verwendete Programmiersprache, Datenbank oder Datei und Wiki-Syntax, wurde eine Wrapper eingesetzt. Der Mediator dient hingegen als Vermittler zwischen der jeweiligen Anwendung und dem Wiki-System. Durch die prototypische Implementation des Konzeptes ist die Durchführbarkeit bewiesen, bestimmte semantische Informationen zu extrahieren und diese in eine für die Weiterverarbeitung geeignete Form zu bringen. Das heißt, bestimmte Informationen können automatisch oder halb-automatisch in eine semantische Beziehung zueinander gesetzt werden.
Binärsuchbäume sind eine wichtige Datenstruktur, die in der Informatik vielfach Anwendung finden. Ihre Konstruktion ist deterministisch, zur Analyse ihrer Eigenschaften wird aber eine rein zufällige Eingabe zugrundegelegt. Viele Größe, wie z.B. Tiefe, Höhe und Pfadlänge werden seit Jahren viel untersucht. Als besonders interessant hat sich die Analyse des Profils, der Anzahl Knoten einer bestimmten Tiefe herausgestellt. In dieser Arbeit wird ein funktionaler Grenzwertsatz für das am Erwartungswert normierte Profil vorgestellt. Dazu werden unterschiedliche Zugänge gewählt, die hauptsächlich auf dem sogenannten Profil-Polynom beruhen. Zunächst wird ein klassischer Zugang mit Hilfe von Martingalen besprochen. Der diskrete Prozess wird dazu auf kanonische Weise in ein zeitstetiges Modell (Yule-Prozess) eingebettet. Ergebnisse im kontinuierlichen Prozess werden dann durch Stoppen auf den diskreten übertragen. Zudem wird ein neuerer Zugang vorgestellt, der auf der Kontraktionsmethode in Banachräumen unter Verwendung der Zolotarev-Metrik beruht.
Raytracing und Szenengraphen
(2006)
Raytracing ist ein bekanntes Verfahren zur Erzeugung fotorealistischer Bilder. Globale Beleuchtungseffekte einer 3D-Szene werden durch das Raytracing-Verfahren physikalisch korrekt dargestellt. Erst aktuelle Forschungsarbeiten ermöglichen es, das sehr rechenintensive Verfahren bei interaktiven Bildraten in Echtzeit zu berechnen. Komplexe 3D-Szenen, wie sie beispielsweise in 3D-Spielen oder Simulationen vorkommen, können durch einen Szenengraphen modelliert und animiert werden. Damit die Rendering-Ergebnisse eines Szenengraphen näher an einem realen Bild liegen, ist es erforderlich das Raytracing-Verfahren in einen Szenengraphen einzugliedern. In dieser Arbeit werden die Möglichkeiten zur Integration eines Echtzeit-Raytracers in eine Szenengraph-API untersucht. Ziel dieser Diplomarbeit ist die Darstellung dynamischer Szenen bei interaktiven Bildraten unter Verwendung des Raytracing-Verfahrens auf einem herkömmlichen PC. Zunächst müssen bestehende Open Source Szenengraph-APIs und aktuelle Echtzeit-Raytracer auf ihre Eignung zur Integration hin überprüft werden. Bei der Verarbeitung dynamischer Szenen spielt die verwendete Beschleunigungsdatenstruktur des Raytracers eine entscheidende Rolle. Da eine komplette Neuerstellung der Datenstruktur in jedem Bild zuviel Zeit in Anspruch nimmt, ist eine schnelle und kostengünstige Aktualisierung erforderlich. Die in [LAM01] vorgestellte Lösung, eine Hüllkörperhierarchie (BVH) als Beschleunigungsdatenstruktur zu verwenden, fügt sich sehr gut in das Konzept eines Szenengraphen ein. Dadurch wird eine einfache Aktualisierung ermöglicht. Um das Ziel dieser Arbeit zu erreichen, ist es notwendig, die Parallelisierbarkeit des Raytracing-Verfahrens auszunutzen. Purcell zeigt in [Pur04], dass Grafikprozessoren (GPUs) neben ihrer eigentlichen Aufgabe auch für allgemeine, parallele Berechnungen wie das Raytracing verwendet werden können. Die in bisherigen Arbeiten über GPU-basiertes Raytracing entwickelten Systeme können dynamische Szenen nicht bei interaktiven Bildraten darstellen. Aus diesem Grund wird in dieser Diplomarbeit ein neues System konzipiert und implementiert, das den in [TS05] entwickelten Raytracer erweitert und in die Open Source Szenengraph-API OGRE 3D integriert. Das implementierte System ermöglicht die Darstellung statischer und dynamischer Szenen unter Verwendung einer Consumer-Grafikkarte bei interaktiven Bildraten. Durch seine Erweiterbarkeit bildet das System das Grundgerüst für ein Realtime-High-Quality-Rendering-System.
Ultrarelativistische Schwerionenkollisionen bieten die Möglichkeit stark wechselwirkende Materie unter hohe Energiedichten zu versetzen und auf diese Weise ihre Eigenschaften zu untersuchen. Werden in den Reaktionen ausreichend große Temperaturen und Baryondichten erreicht, so erwartet man einen Phasenübergang von der hadronischen zu der partonischen Phase, dem Quark Gluon-Plasma. Das QGP ist ein Materiezustand, in dem die Quarks nicht mehr wie in der gewöhnlichen Materie in Hadronen gebunden sind, sondern als quasi-freie Teilchen neben den Gluonen vorliegen. Eines der Hauptziele der Schwerionenphysik besteht darin, solch ein theoretisch vorhergesagtes QGP experimentell zu erzeugen und den damit verbundenen Phasenübergang zu untersuchen. Die Produktion von seltsamen Teilchen stellt dabei eine grundlegende Observable dar, durch die Rückschlüsse auf den Reaktionsverlauf einer Schwerionenkollision gezogen werden können. In dieser Arbeit wurde die Produktion der neutralen Kaonen in Pb+Pb Reaktionen bei verschiedenen Energien untersucht. Die neutralen Kaonen können über die schwach zerfallenden K0S gemessen werden und stellen gemeinsam mit den geladenen Kaonen die in einer Schwerionenkollision am häufgsten erzeugten seltsamen Teilchen dar. Die Messungen der Pb+Pb Reaktionen wurden mit Hilfe des NA49 Experiments am Europäischen Zentrum für Teilchenphysik, dem CERN, durchgeführt. Bei diesem Experiment handelt es sich um ein magnetisches Spektrometer, das sich durch seine große Akzeptanz für geladene Hadronen auszeichnet und den Anforderungen hoher Teilchenmultiplizitäten, die insbesondere in zentralen Pb+Pb Reaktionen bei der maximalen SPS-Strahlenergie von 158A GeV auftreten, genügt. Im Rahmen des NA49 Energie-Scan Programmes wurden Schwerionenkollisionen neben einer Strahlenergie von 158A GeV auch bei 20A, 30A, 40A und 80A GeV gemessen. Die Vielzahl an experimentellen Daten ermöglicht ein detailliertes Studium der Energieabhängigkeit der hadronischen Endzustandsverteilung hochrelativistischer Schwerionenkollisionen. Die in der vorliegenden Arbeit untersuchten neutralen Teilchen K0S können anhand ihrer charakteristischen V0-Zerfallstopologie, welche sich bei ihrem schwachen Zerfall in ein Pi+Pi- - Paar ergibt, identifiziert werden. Durch die gemessenen Zerfallsprodukte wurde in der Analyse die invariante Masse der V0-Teilchen in differentiellen Phasenraum-Bins rekonstruiert. Mittels geeigneter QualitÄatskriterien konnte dabei der Untergrund aus zufälligen Kombinationen von primären Spuren, falschen Kombinationen mit sekundären Spuren, sowie Lambda s und Antilambda s von der K0S-Analyse weitgehend unterdrückt werden. Um auf die dadurch verursachten Verluste wahrer K0S, genauso wie auf jene Verluste, die aufgrund der geometrischen Akzeptanz des Detektors und weiterer Ineffizienzen auftreten, korrigieren zu können, wurde das Embedding herangezogen. Mit Hilfe dieses Verfahrens konnten die Korrekturfaktoren für die verschiedenen Phasenraumbereiche ermittelt und auf die jeweiligen Rohsignale angewendet werden. Der systematische Fehler der korrigierten Teilchenspektren konnte durch eine Vielzahl systematischer Studien abgeschätzt werden. Dabei wurde ein grundlegender Fehler aufgedeckt, dessen Ursprung in der GSI Methode liegt. Da die GSI Methode bereits in der Datenrekonstruktion, auf der diese Analyse beruht, Verwendung findet und in Folge dessen eine Behebung dieses Fehlers im Rahmen dieser Diplomarbeit nicht möglich war, wurde für die Ermittlung der Endergebnisse stattdessen die Birmingham Methode verwendet. Es wurden die korrigierten transversalen Massenspektren sowie die Transversalimpuls-Spektren der K0S bei Midrapidity für die drei untersuchten Strahlenergien von 30A, 40A, und 158A GeV präsentiert. Des Weiteren wurden die Rapiditätsspektren für die verschiedenen Energien gezeigt, aus denen wiederum die entsprechende totale Multiplizität <K0S> ermittelt werden konnte. Deren Energieabhängigkeit sowie die des inversen Steigungsparameters T wurden diskutiert und mit den Ergebnissen der geladenen Kaonen verglichen. Die gemessenen K0S-Rapiditätsspektren und totalen Multiplizitäten lagen zwar bei allen untersuchten Energien systematisch niedriger als die entsprechend gemittelten der geladenen Kaonen, haben jedoch, genauso wie der inverse Steigungs- parameter T, eine qualitativ ähnliche Energieabhängigkeit aufgezeigt. Weiterhin wurde das K0 S-Rapiditätsspektrum für 158A GeV mit denen anderer K0S-Analysen verglichen. Dabei konnte eine ähnliche Abweichung wie im Vergleich zu den geladenen Kaonen festgestellt werden. Abschließend wurde noch die Energieabhängigkeit des Verhältnisses von Kaonen zu Pionen in dem Energiebereich von AGS bis hin zu RHIC untersucht. Dabei konnte eine ausgeprägte Struktur in der Energieabhängigkeit des <Ki>/Pi-Verhältnisses beobachtet werden, welche als ein Indiz für einen Phasenübergang zu einem Quark Gluon-Plasma angesehen werden kann.
Fraktale Planetengenerierung
(2006)
Wie die Diplomarbeit gezeigt hat, lassen sich zwar ganze Planeten ohne größere Verzerrungen mit Hilfe fraktaler Methoden modellieren. Allerdings stößt die Darstellungsqualität an ihre Grenzen, da sich gängige Level-of-Detail-Algorithmen, wie ROAM bzw. Röttger, nicht einfach an die durch das Surface-Refinement gegebenen Bedingungen anpassen. Insbesondere die Triangulierung durch gleichseitige Dreiecke hat sich als problematisch erwiesen. Ohne diese LOD-Techniken kann aber nur eine relativ geringe Auflösung berechnet werden. Der vorgestellte Level-of-Detail-Algorithmus stellt zwar keinen Ersatz für die obengenannten Verfahren dar. Er bietet aber eine sehr gute Grundlage, denn er schränkt einfach und dadurch sehr schnell den Bereich ein, in dem sich der Betrachter bzw. die virtuelle Kamera befindet. Dies ist vorallem auch deshalb wichtig, weil die bisher entwickelten LOD-Algorithmen nur mit vergleichsweise kleinen Flächen wirklich effizient funktionieren. Eine Kombination aus dem in der Diplomarbeit entwickelten Verfahren und einem ROAM/Röttger-ähnlichen Algorithmus würde deren jeweiligen Schwächen beheben. Die eigentliche Modellierung der Landschaft bzw. der Gebirgszüge lässt sich dagegen problemlos auch auf sphärische Körper übertragen, zumindest wenn man dafür den Plasma-Algorithmus verwendet.
Im Zuge der wachsenden Bedeutung von ELearning an Hochschulen beschäftigt sich diese Arbeit mit dem Einsatz von WebCT an der Johann Wolfgang Goethe Universität in Frankfurt am Main. In der vorliegenden Arbeit soll untersucht werden, inwieweit es nötig und möglich ist, WebCT hinsichtlich Benutzerfreundlichkeit, der Realisierung technischer Ideen und der pädagogischen Einsatzmöglichkeiten einzelner Tools zu optimieren. Aufgrund von Erfahrungen unsererseits, aus der Sicht als Kursteilnehmer mehrerer Lehrveranstaltungen mit Unterstützung von WebCT, im Sinne von Blended Learning und zu einem späteren Zeitpunkt als Tutoren in einem auf WebCT basierendem Seminars stellten wir fest, dass sich die Einbindung von WebCT als ELearning Plattform als aufwendig erwies. Dies könnte an mangelnden technischen Kenntnissen und Möglichkeiten liegen als auch an der nachlassenden Nutzung von Seiten der Studenten im Laufe des Semesters. Für uns stellte sich nun die Frage, wie WebCT optimiert werden kann, damit sich der didaktisch sinnvolle Einsatz in Lehrveranstaltungen erhöht. Die Diplomarbeit unterteilt sich in zwei Abschnitte; zum Ersten in die Analyse von WebCT, anhand der Kriterien und der Interviews und zum Zweiten in die Interviewauswertung und – interpretation einschließlich der technischen Optimierung.
Das Thema der vorliegenden Arbeit war die molekulargenetische Charakterisierung der Funktion der Glukosesensoren Snf3 und Rgt2 in der Hefe S. cerevisiae. Snf3 und Rgt2 gehören zur Familie der Hexosetransporter. Sie unterscheiden sich von ihnen jedoch in ihrer Funktion als Glukosesensoren wie auch durch ihre ungewöhnlich langen Cterminalen Domänen. Snf3 und Rgt2 sind integrale Membranproteine, die als Reaktion auf extrazelluläre Glukose Signale auslösen, die zur Expression bestimmter Hexosetransporter führt. Einige Komponenten, die an der Signaltranduktion beteiligt sind, wurden bereits identifiziert. Jedoch ist der genaue Mechanismus, der zur Expression der Hexostransporter führt, noch nicht vollständig aufgeklärt. Im ersten Teil dieser Arbeit wurden die Proteine Snf3, Rgt2, Mth1, Std1 und Rgt1 auf direkte Interaktionen untereinander getestet, um Einblicke in den molekularen Mechanismus der Signaltransduktion zu erhalten. Desweiteren sollte festgestellt werden, ob die Protein-Wechselwirkungen von der C-Quelle abhängig sind. Es konnte gezeigt werden, dass zwischen den Membranproteinen Rgt2 bzw. Snf3 und den löslichen Proteinen Mth1 bzw. Std1 Interaktionen in Abhängigkeit von Glukose stattfanden. Diese Ergebnisse unterstützen das von Moriya und Johnston aufgestellte, gegenwärtige Modell für eine glukoseinduzierte HXT Genexpression. Im zweiten Teil dieser Arbeit wurde geprüft, ob sich aus dem Glukosesensor Snf3 durch eine Aminosäuresubstitution ein bifunktionaler Sensor für Glukose und Galaktose erzeugen läßt. Dazu wurden die für den Galaktosetransport verantwortlichen Aminosäuren in den homologen Positionen von Snf3 ausgetauscht. Die Bestimmungen der Regulation des Snf3-kontrollierten HXT7 Promotors ergaben, dass das mutierte Snf3 Protein, wie das Wildtyp-Snf3 Protein, eine normale Glukosesensorfunktion ausübt aber keine Galaktosesensorfunktion vorzeigt.
ALPHA ist die Architektur einer lokationssensitiven Puppe für hydropneumatische Animation. Es ist ein Animations-Eingabegerät. Die Puppe soll ein Objekt repräsentieren, welches animiert werden soll. Ihre Gliedmaßen, welche aus Knochen und Gelenken bestehen, sind beweglich. Sie wird an einen Computer angeschlossen und die gegenwärtige Stellung ihrer Gelenke kann mittels eines ebenfalls entwickelten Treibers von diesem Computer eingelesen werden. Des Weiteren wird erklärt was eine hydropneumatische Animation ist. Die Diplomarbeit weist die folgende Gliederung auf: • Motivation • Technische Grundlagen und State-Of-The-Art-Analyse • Anforderungsanalyse • Das eigene Konzept, die lokationssensitive Puppe (ALPHA) • Evaluation • Ausblick Die Motivation beschäftigt sich mit der Entwicklung der Filmanimation und einiger Errungenschaften in der Laufbahn der Animationstechnologischen Entwicklung. Die technischen Grundlagen beschränken sich auf die Funktionsweise von Messapparaturen, welche als Gelenkstellungssensoren fungieren können. Im Einzelnen sind das der optische Resolver, der Optoencoder und die Kombination von einem Drehpotentiometer und einem Analog/Digital-Wandler. Zur State-Of-The-Art-Analyse gehört die Erläuterung bereits entwickelter Stellungs- und Bewegungsmessender Technologien, wie das Stop-Motion-Verfahren, das Motion-Capturing, das Dinosaur-Input-Device und der Datenhandschuh. Eine Zusammenstellung der Defizite dieser Verfahren schließt dieses Kapitel ab. Die Analyse der Anforderungen an ein zu entwickelndes System ist im Kapitel Anforderungsanalyse zu finden. Zum eigenen Konzept gehört die gesamte Entwicklung einer lokationssensitiven Puppe. Die Puppe ist das Ebenbild des Skeletts eines zu animierendes Objekts. Sie besteht aus mehreren Gliedmaßen, welche an ihren Gelenken beweglich sind. Die Gelenkstellung wird von Potentiometern gemessen, dessen Signal ein A/D-Wandler empfängt. Die Umschaltung der einzelnen Messwerte erfolgt über Analog-Multiplexer. Die gesamte Steuerung der Bauteile und das Auslesen des A/D-Wandler werden durch einen Treiber über den Parallelport eines PCs gesteuert. Die Funktionsweise des Treibers und seine Implementierung werden ebenfalls in diesem Kapitel erläutert. Im Kapitel Evaluation befindet sich eine Bewertung des Konzepts und der Erfüllung der Anforderungsanalyse. Schließlich zeigt der Ausblick die Möglichkeiten der Anwendungen der Puppe und einen Blick in zukünftige Technologien.
In dieser Arbeit wurde die grundsätzliche Funktionsweise und die Eigenschaften von photokonduktiven CW-Thz-Emittern dargestellt. In diesem Rahmen wurde der Prozess des Photomischens und die Funktionsweise und Eigenschaften von Antennen auf Halbleitersubstraten untersucht. Um das erwartete frequenzabhängige Emissionsverhalten zu überprüfen wurde ein Messplatz zur Durchführung von Vergleichsmessungen diverser Emitter aufgebaut. Desweiteren wurde ein Fourier-Transform-Interferometer zur frequenzaufgelösten Detektion im THz-Bereich entwickelt. Zur Charakterisierung der Emitter wurde die emittierte Leistung in Abhängigkeit der Frequenz gemessen. Als abstrahlende Strukturen wurden Dipol- und Patch-Antennen verwendet. Dabei wurde gezeigt, daß eine Einschränkung der Bandbreite eine Verstärkung der Emission in dem verbleibenden Frequenzbereich ergibt. Dies wird bei Dipolantennen durch eine Filterstruktur oder allgemein durch Verwendung einer stark resonanten Antennenstruktur wie der Patchantenne erreicht. Es wurde gezeigt, daß die Einbeziehung der zu höheren Frequenzen abfallenden Leistung des Photomischers notwendig für eine Beschreibung der Resonanzkurve ist. Dadurch verschiebt sich das Maximum der Abstrahlung und liegt im Falle des Dipols nicht mehr bei der Anregung nah der Wellenlänge die gleich der Dipollänge ist. Allerdings wurde auch gezeigt, daß dies nicht für eine Beschreibung der Resonanzkurve ausreicht, und daß zur korrekten Modellierung die Übertragung der Leistung von Photomischer auf die Antenne eingefügt werden muß. Diese ist stark von dem komplexen Widerstand des Photoschalters abhängig. Die Resonanzcharakteristik von Patch-Antennen konnte durch die Berechnung der TMModen eines dreidimensionalen mit einem Dielektrikum gefüllten Resonators erklärt werden. Dieser besitzt aber so viele mögliche Moden, daß schon kleine geometrische Veränderungen die Resonanzfrequenz verändern können. Somit ist die Berechnung der Resonanzfrequenz sehr schwierig, und die praktische Einsetzbarkeit der gezeigten Patch-Antennen gering. Allerdings ist bei Patchantennen anders als bei Dipolen die Quelle der Emission, in diesem Fall der Resonator aus Polyamid, unabhängig vom Substrat auf dem sich die Antenne befindet. Dies macht ein Aufbringen auf ein für die Emission optimales Substrat oder einen Spiegel möglich. Die berechnete Resonanzfrequenz der Filterstruktur in der Zuleitung ist auch die tatsächliche Resonanzfrequenz des Dipols. Hier ist eine Vorhersage und somit ein funktionierendes Design relativ leicht zu erreichen. Allerdings wurde die durch die Filterstruktur in der Zuleitung gewählte Resonanzfrequenz fälschlicherweise für eine Anregung mit der vollen Wellenlänge gewählt und liegt wie die vergleichende Messung mit identischem Dipol ohne Filterstruktur zeigt, nicht im Emissionsmaximum des Emitters. Für zukünftige Designs muß eine detaillierte Berechnung oder eine Messung des Emissionsmaximums des Dipols ohne Verwendung eines Filters vorangehen, um die Resonanzfrequenz des Filters auf dieses Maximum zu legen. Um eine bestimmte Frequenz zu erreichen muß also erst der Dipol ohne Filter so gewählt werden, daß dessen Emissionsmaximum bereits bei der gewünschten Frequenz liegt, um dann die Emission mit Hilfe eines Filters zu verstärken. Ebenfalls muß in der Zukunft um die Anwendbarkeit zu erhöhen, die bolometrische Detektion durch photokonduktive oder elektrooptische Detektion ersetzt werden.
Simulation von Prüfungsordnungen und Studiengängen mit Hilfe von Constraint-logischer Programmierung
(2006)
In dieser Arbeit wurde versucht die Prüfungsordnung des Bachelorstudiengangs Informatik mit Hilfe der Constraint-logischen Programmiersprache - genauer der Programmiersprache ECLiPSe e zu simulieren und diese auf logische Fehler zu überprüfen. Hierfür wurden die beiden deklarativen Programmierparadigmen, die logische Programmierung und die Constraint-Programmierung, getrennt erläutert, da sie unterschiedliche Techniken bei der Problembehandlung einsetzen. Zunächst wurde als Grundlage die Prädikatenlogik (Kapitel 2), erarbeitet und ausführlich dargestellt. Anschließend wurde die logische Programmierung mit der, auf Prädikatenlogik basierenden, Programmiersprache Prolog erläutert (Kapitel 3). Nach der Erläuterung des logischen Teils wurde die Constraint-Programmierung (Kapitel 4) eingehend erläutert. Damit wurde eine Basis geschaffen, um die Constraint-logische Programmierung zu erläutern. Die Constraint-logische Programmierung (Kapitel 5) wurde als eine Erweiterung der logischen Programmierung um Constraints und deren Behandlung dargestellt. Dabei wurde zunächst ein allgemeiner Ansatz der Constraint-logischen Programmierung (CLP-Paradigma) erläutert. Mit der Einführung der Programmiersprache ECLiPSe, wurden alle Werkzeuge behandelt, die für die Simulation benötigt wurden. Schließlich wurde genauer auf die Modellierung des Problems und seine Implementierung in der Sprache ECLiPSe eingegangen (Kapitel 6). Grundidee der Simulation war, die Regeln der Prüfungsordnung als Constraints zu formulieren, so dass sie formal bearbeitet werden konnten. Hier wurden zwei Arten von Tests durchgeführt: • Constraint-Erfüllbarkeitsproblem: Mit dem ersten Test wurde nach eine Lösung gesucht, in der alle Constraints erfüllt sind. • Constraint-Optimierungsproblem: Hier wurde nach einer optimalen Lösung gesucht unter mehreren Kandidaten, in der alle Constraints erfüllt sind. Fazit: Die Constraint-logische Programmierung ist ein viel versprechendes Gebiet, da sie ein Mittel zur Behandlung kombinatorischer Probleme darstellt. Solche Probleme treten in vielen verschiedenen Berufsfeldern auf und lassen sich sonst nur mit großem Aufwand bewältigen. Beim Auftreten solcher Probleme kann schnell ein konzeptuelles Modell erstellt werden, das sehr einfach in ein ausführbares Programm (Design-Modell) umgewandelt wird. Programm-Modifikation ist erheblich leichter als in den prozeduralen Programmiersprachen.
Wir betrachten in dieser Diplomarbeit die Sicherheit des ringbasierten Public Key Kryptosystems NTRU, das 1996 von J. Hoffstein, J. Pipher und J.H. Silverman vorgeschlagen wurde. Dieses Kryptosystem bietet schnelle Kodierung und Dekodierung in Laufzeit O(n exp 2) bei kleinem Sicherheitsparameter n. Die Sicherheit des Systems beruht auf einem Polynomfaktorisierungsproblem (PFP)im Polynomring Zq[X]/(X exp n -1). Das PFP wurde von Coppersmith und Shamir auf ein Kürzestes Vektor Problem im Gitter Lcs reduziert. Die neuen Ergebnisse dieser Arbeit bauen auf dem Gitter Lcs auf. Wir betrachten die Nachteile von Lcs und konstruieren verbesserte Gitterbasen zum Angriff auf das NTRU-Kryptosystem. Dabei nutzen wir Strukturen des Polynomrings Zq[X]/(X exp n -1) und der geheimen Schlüssel aus. Durch die neuen Gitterbasen wird der Quotient aus der Länge des zweitkürzesten und der Länge des kürzesten Gittervektors vergrößert. Da wir Approximationsalgorithmen zum Finden eines kürzesten Vektors verwenden, beschleunigt dies die Attacken. Wir präsentieren verschiedene Methoden, wie man die Dimension der Gitterbasen verkleinern kann. Durch die verbesserten Gitterattacken erhalten wir eine Cryptanalyse des NTRU-Systems in der vorgeschlagenen mittleren Sicherheitsstufe. Beträgt die Zeit zum Brechen eines Public-Keys unter Verwendung der Coppersmith/Shamir-Basis 1 Monat, so verringert sich die Laufzeit durch einen kombinierten Einsatz der neuen Gitterbasen auf ca. 5 Stunden auf einem Rechner und bei Parallelisierung auf ca. 1:20 Stunde auf 4 Rechnern. Wir erwarten, daß die neuen Methoden NTRU in hoher Sicherheitsstufe n = 167 brechen, obwohl für dieses n bisher nur "schwache" Schlüssel gebrochen wurden. Trotz signifikanter Verbesserungen deuten die experimentellen Ergebnisse auf ein exponentielles Laufzeitverhalten bei steigendem Sicherheitsparameter n hin. Der Laufzeitexponent kann allerdings gesenkt werden, so daß man n größer wählen muß, um Sicherheit gegenüber den neuen Attacken zu erzielen. Auch wenn das NTRU-Kryptosystem nicht vollständig gebrochen wird, verliert es seinen größten Vorteil gegenüber anderen Public Key Kryptosystemen: Die effiziente Kodierung und Dekodierung bei kleinem Sicherheitsparameter n.
Korrektur der durch ein inhomogenes Magnetfeld verursachten Verzerrungen in einer Spurendriftkammer
(1995)
Das Ziel dieser Arbeit war die Untersuchung der Photodoppelionisation des H2-Moleküls mit zirkular polarisiertem Licht. Dabei sollte nach Anzeichen von Doppelspaltinterferenzen in den Photoelektronenwinkelverteilungen gesucht werden. Die Erscheinungen im klassischen Doppelspaltexperiment basieren auf der Interferenz der nach dem Huygenschen Prinzip gebeugten ebenen Wellen. In Analogie dazu stellen nun im molekularen System die beiden Kerne die Emissionszentren der Elektronenwelle dar. Die Interferenzerscheinung wird dabei durch die von beiden Kernen gleichzeitig emittierte Elekltronenwelle hervorgerufen. Die Photodoppelionisation des H2-Moleküls wurde mit einer Photonenenergie von 240 eV durchgeführt, um eine Wellenlänge der ionisierten Elektronen in der Größenordnung des Gleichgewichtsabstands der Kerne von 1.4 a.u. zu erreichen. Zur Erzeugung des Interferenzeffektes hätte eigentlich die Einfachionisation des Moleküls ausgereicht, da die Welle eines Elektrons gleichzeitig von beiden Protonen ausläuft. Es wurde trotzdem die Doppelionisation durchgeführt, da so die Ionen in Koinzidenz gemessen werden können und die Impulserhaltung in der Coulomb-Explosion des Moleküls zur Identifikation von H2-Ionisationsereignissen verwendet werden kann. Weitere Vorteile sind die Beobachtung der Elektronenkorrelation für verschiedene Energieaufteilungen der Elektronen, sowie die Möglichkeit der Bestimmung des internuklearen Abstandes aus der kinetischen Energie der Ionen (KER). Zunächst wurde die Winkelverteilung der Photoelektronen für eine extrem asymmetrische Energieaufteilung untersucht. Die Lage und Größe der Interferenzmaxima und -minima in der Elektronenwinkelverteilung wurde dann mit der im klassischen Doppelspaltexperiment auftretenden Interferenzstruktur verglichen. Es konnte gezeigt werden, dass das Interferenzminimum sich wie im Falle des klassischen Doppelspaltes unter einem Winkel von ca. 52° relativ zur Spalt- bzw. Molekülachse befindet. Die Größenverhältnisse von Haupt- zu Nebenmaximum wichen dagegen von den klassischen Erwartungen ab. Während beim Doppelspalt das Hauptmaximum bei 90° relativ zur Spaltachse liegt, lag in diesem Experiment das ausgeprägteste Maximum unter 0°, d.h. entlang der Molekülachse. Die experimentellen Ergebnisse wurden daraufhin mit einigen Theorien verglichen. Die Theorie von Cherepkov und Semenov, welche die Einfachionisation des Wasserstoffmoleküls für zirkular polarisiertes Licht behandelt, berechnet die Elektronenwinkelverteilung durch die Hinzunahme der Streuung der Photo-elektronenwelle am benachbarten Proton. Die Berücksichtigung dieses Effektes führt zu einer deutlich besseren Beschreibung der Daten. Da es sich in diesem Experiment um die Doppelionisation des Moleküls handelt, auch für Fälle bei denen einem Elektron nahezu keine kinetische Energie zukommt, muss die Wechselwirkung zwischen allen Fragmenten, insbesondere zwischen den Elektronen berücksichtigt werden. Die 5C-Theorie [Wal00] berücksichtigt die Coulomb-Wechselwirkung zwischen allen Fragmenten des Wasserstoffmoleküls. Die Wechselwirkung zwischen den Ionen kann allerdings im Rahmen der Born-Oppenheimer-Näherung vernachlässigt werden. Der 5C-Rechnung zeigt, wie die experimentellen Daten, verstärkte Maxima entlang der Molekülachse, jedoch ist hier die Änderung des Größenverhältnisses zu extrem im Vergleich zu den experimentellen Daten. Um die experimentell gefundene Elektronenwinkel-verteilung zu rekonstruieren, dürfen dennoch anscheinend weder Streueffekte noch die Coulomb-Wechselwirkung der Fragmente vernachlässigt werden. Im weiteren Verlauf der Arbeit wurde die Energieaufteilung der Elektronen variiert. Die Interferenzstruktur wurde für verschiedene Energien des langsamen Elektrons untersucht. Je höher die Energie des langsamen Elektrons war, umso schwächer wurde das Maximum 0. Ordnung (senkrecht zur Molekülachse) der Interferenzen des schnellen Elektrons. Die unveränderte Größe des Maximums 1. Ordnung (entlang der Molekülachse) wurde auf die Überlagerung der Streueffekte sowie der Coulomb-Wechselwirkung mit der Interferenzstruktur zurückgeführt. Über die Energie der Protonen wurde im Experiment zudem der internukleare Abstand zum Zeitpunkt der Photoabsorbtion bestimmt. Es zeigt sich eine deutliche Abhängigkeit des Interferenzmusters vom internuklearen Abstand. Die experimentell gefundene Abhängigkeit entspricht dabei der des klassischen Doppelspalts. Schließlich wurde die Elektronwinkelverteilung für eine feste Emissionsrichtung des langsamen Elektrons untersucht. In den experimentellen Daten konnte deutlich die Unterdrückung der Emissionswahrscheinlichkeit des schnellen Elektrons entlang der Emissionsrichtung des langsamen Elektrons beobachtet werden. Diese Elektronenwinkelverteilung konnte durch eine Faltung der reinen Interferenz – erzeugt durch die Integration über den Zwischenwinkel der Elektronen - mit der reinen Elektronenwechselwirkung - erzeugt durch die Integration über die Stellung der Molekülachse - rekonstruiert werden. Die Verteilung nach der Integration über die Molekülachse ähnelte dabei der Struktur der Elektronenwinkelverteilung nach der Doppelionisation des Heliumatoms. Daraus lässt sich schlussfolgern, dass die gemessene Winkelverteilung der Photoelektronen des doppelionisierten Wasserstoffmoleküls aus einer Überlagerung der Coulomb-Wechselwirkung der Elektronen des heliumähnlichen Systems mit der Interferenzstruktur besteht. Das bedeutet, die Elektron-Elektron-Korrelation und die Doppelspaltinterferenz sind zwei separate Prozesse. Die Elektronen verlassen den Molekülverband wie im Heliumatom über den SO- bzw. den TS1-Prozess und das langsame Elektron führt nicht zur Dekohärenz.
Mit dem Dileptonenspektrometer HADES sollen Dielektronen aus Kern - Kern - Stößen in einem hadronischen Untergrund bei hohen Multiplizitäten untersucht werden. Die Ereignisrate von 106 pro Sekunde erfordert eine Auslese der Detektoren innerhalb von 10 mikrosek. Die erwarteten hohen Multiplizitäten führen zu einer hohen Granularität der Detektoren und damit auch der Ausleseelektronik. Durch die Verwendung mehrere Triggerstufen wird eine Aufteilung des Auslesesystems auf mehrere Stufen notwendig. Für die Auslese von ~ 26.000 Driftzellen in 24 Driftkammermodulen wurde ein an die Anforderungen des Detektorsystems angepaßtes Auslesekonzept entwickelt. Analoge Signalaufbereitung und Messung der Driftzeit werden direkt am Detektor auf zwei miteinander kombinierten Karten untergebracht. Die nötige Integrationsdichte im Digitalisierungsteil wird durch die Verwendung eines speziellen Zeitmeßverfahrens (TDC) erreicht, das auf Signallaufzeiten in Halbleiterschaltungen basiert. Im gleichen Chip befindet sich auch eine Datenübertragungseinheit, die in der Lage ist die Daten mit der erforderlichen Geschwindigkeit zu transferieren. Durch zwei weitere Module mit Speicher zum Puffern der Ereignisdaten wird den Anforderungen des Triggerkonzeptes Rechnung getragen. Dem verwendete Zeitmeßverfahren (Ringoszillator) ist eine Abhängigkeit der Zeitauflösung von Temperatur und Versorgungsspannung inherent. Ausführliche Messungen im Rahmen dieser Arbeit zeigen, daß die relativen Abhängigkeiten mit 0,2 Promille jedoch in einem Bereich liegen, in dem sie durch geeignete Maßnahmen kontrolliert werden können. Dazu zählen die regelmäßige Kalibrierung, sowie die Messung und Überwachung von Temperatur und Versorgungsspannung. Die Leistungsaufnahme des Auslesesystems liegt mit 5kW (total) noch um ca. einen Faktor zwei über den Spezifikationen. Sowohl die Tests des TDC Zeitmeßteils, als auch die Simulationen zeigen die Realisierbarkeit des Systems. Dies konnte auch durch Simulationen des gesamten Auslesesystems im Rahmen einer Projektstudie zum Triggerkonzept an der Universität Giessen nachgewiesen werden. Ein abschließender Funktionstest der Ausleseelektronik mit dem TDC an der Prototypdriftkammer im Labor ist gegenwärtig in Vorbereitung. Zur endgültigen Realisierung der Ausleseelektronik bedarf es noch der Reduzierung des Platzbedarfes sowie der Leistungsaufnahme. Zur Reduktion der Größe des Motherboardes wird eine mehrlagige Platine entwickelt. Für die Anbringung der Daughterboards ist eine platzsparende Geometrie vorgesehen. Die Reduktion der Leistungsaufnahme wird hauptsächlich durch neuere Entwicklungen bei den Daughterboards möglich. Auch die Verwendbarkeit des im Rahmen eines anderen Projektes entwickelten SAM - Modules als Konzentrator für die Driftkammerauslese ist zu untersuchen. Da diese Karte auch einen DSP enthält, ist entsprechende Software erforderlich. Die Segmentierung des modularen Spektrometersystems erlaubt den endgültigen Aufbau in mehreren Schritten. Vorgesehen ist, zunächst nur einzelne Segmente oder einzelne Ebenen der Driftkammern aufzubauen, und das komplette System erst zu einem spätern Zeitpunkt in Betrieb zu nehmen. Einzelne Komponenten können durch Neuentwicklungen ersetzt werden.
In der vorliegenden Diplomarbeit wurden verschiedene THz-Emissions- und Detektionsverfahren im Hinblick auf ihre Eignung für das verwendete regenerativ verstärkte Lasersystem verglichen. Als der Emitter mit der höchsten Konversionseffizienz und dementsprechend den höchsten THz-Pulsenergien erwies sich der großfkächige, extern vorgespannte GaAs-Emitter. Bezüglich des für viele Anwendungen wichtigeren Signal-Rausch-Verhältnisses hingegen zeigt sich für Frequenzen oberhalb von etwa 200 GHz der EO-ZnTe-Emitter als überlegen. Weder der intrinsische Emitter, noch das vorgespannte Plasma ließen eine vergleichbare Eignung erkennen. Für die THz-Detektion ist das Ergebnis eindeutig: Die EO-Detektion ist für das verwendete Lasersystem der Detektion mit Halbleiter-Antennen sowohl hinsichtlich Signal-zu-Rauschverhältnis als auch Bandbreite überlegen. Zur Steigerung der emittierten Bandbreite und der detektierten Feldstärke der Emissionsverfahren bestehen verschiedene Ansätze: ...
Die zentrale Frage dieser Studie lautet: Wann ist eine stetige Funktion auf einem kompakten Raum, welche Werte in einem lokalkonvexen Raum annimmt, (Pettis-)integrierbar?
Im ersten Kapitel wird definiert, was konvexe Kompaktheit ist. Es wird das Pettis-Integral vorgestellt, und der Zusammenhang zwischen der konvexen Kompaktheitseigenschaft (oder ccp) und dem Pettis-Integral wird erläutert. Außerdem stellt dieses Kapitel dar, inwiefern die ccp aus stärkeren Eigenschaften lokalkonvexer Räume folgt oder schwächere impliziert. Das zweite Kapitel beweist hauptsächlich den Satz von Krein, der einen Zusammenhang zwischen Vollständigkeit unter der Mackey-Topologie und der ccp unter der schwachen Topologie herstellt. Das dritte Kapitel erläutert mit Gegenbeispielen, inwiefern die in Kapitel 1 vorgestellten Vollständigkeitseigenschaften lokalkonvexer Räume notwendig gegeneinander abgegrenzt sind. Das vierte Kapitel stellt zuerst das Bochner-Integral und das starke OperatorIntegral vor, um dann die starke konvexe Kompaktheitseigenschaft oder sccp einzufuhren, eine Eigenschaft, welche der ccp verwandt ist. Es wird fur einen Raum beispielhaft bewiesen, daß er diese Eigenschaft besitzt. Zuletzt wird der Zusammenhang von sccp und ccp ausfuhrlicher dargestellt.
Diese Arbeit wendet sich an Leser, denen die Grundlagen der Theorie lokalkonvexer Räume schon vertraut sind. Insbesondere ist Vertrautheit mit den Begriffen tonneliert, ultrabornologisch, bornologisch, polare Topologie unterstellt. Man findet eine kurze und einfach verständliche Einfuhrung im Werk [RR]. Alle über diese Grundlagen hinausgehenden Resultate werden in dieser Arbeit mit Beweis ausgefuhrt, oder es wird mit Angabe der Fundstelle auf die Literatur verwiesen.
Moderne Softwaresysteme gewinnen zunehmend an Komplexität und bestehen inzwischen aus einer für Menschen nicht mehr überschaubaren Menge an Quellcode-Zeilen. Die Problematik könnte damit zusammenhängen, dass Programmiersprachen als Sprachen linear orientiert sind. Es stellt sich die Frage, ob graphische Darstellungen besser geeignet wären. Durch das Hinzufügen einer zweiten Dimension könnten Vererbungshierarchien und vernetzte Zusammenhänge – wie beispielsweise Funktionsaufrufe – besser visualisiert und durch das Ausblenden von Implementierungsdetails auf einen Blick erfasst werden. In dieser Arbeit werden Möglichkeiten der Visualisierung untersucht, bei denen der Sourcecode graphisch dargestellt wird und bei denen eine Änderung in der graphischen Darstellung in einem veränderten Sourcecode resultiert. Die Kernfrage, die in dieser Arbeit untersucht werden soll, ist, ob graphisch orientierte Tools die Programmierung wesentlich beschleunigen können. Dabei wird hauptsächlich auf die Visualisierung der vernetzten Strukturen von Klassen und Methoden Wert gelegt sowie auf die automatische Generierung. Ohne eine Automatisierung muss zu viel Zeit investiert werden, um die Darstellung zu erzeugen und mit geänderten Code konsistent zu halten. Dabei werden bisherige Konzepte wie die graphische Modellierungssprache UML beschrieben und die Umsetzung in unterschiedlichen Programmen untersucht. Die Abbildung von UML-Diagrammen in Sourcecode und von Sourcecode in UMLDiagramme bereitet jedoch einige Probleme, da viele Konzepte von UML zu stark abstrahieren und eine Abbildung nicht eindeutig und teilweise nicht möglich ist. Aus diesem Grund wird aufbauend auf den vorhandenen Möglichkeiten ein neues Konzept entwickelt, das prototypisch implementiert wird. Dabei werden viele Elemente von UML genutzt und auf die gestellten Anforderungen angepasst, sodass eine automatische graphische Darstellung parallel zur Programmierung in Textform möglich ist.
Diese Diplomarbeit beschäftigt sich sowohl mit der Akquisition, der Verwaltung und der winkelabhängigen, spektralen Reflexionsfunktion BRDF (Bidirectional Reflectance Distribution Function) und BTFs (Bidirection Texture Functions) von einigen ausgewählten realistischen Materialoberflächen bei fester Beleuchtung, als auch der Generierung der BTFs aus vorhandenen BRDFs und BTFs und der Anwendung der Beschreibung von Oberflächen mittels BRDFs und BTFs bei Erzeugungen von 3D-Szenen. Im Rahmen dieser Diplomarbeit werden Konzepte für eine effektivere Nutzung von BTFs in der photorealistischen Bilderzeugung entwickelt und prototypisch umgesetzt. Der Fokus liegt dabei auf einer vereinfachten Synthese von BTFs aus vorhandenen BRDF- und BTF-Daten, sowie in einer effizienten Nutzbarmachung dieser Informationen für Rendering-Prozesse.
Die Implementation der Striktheits-Analyse, die im Zuge dieser Arbeit vorgenommen wurde, stellt eine effiziente Approximation der abstrakten Reduktion mit Pfadanalyse dar. Durch die G#-Maschine, ein neues, auf der G-Maschine basierendes Maschinenmodell, wurde die verwendete Methode systematisch dargelegt. Die große Ähnlichkeit mit der G-Maschin, die in unserer Implementation beibehalten werden konnte, zeigt, wie natürlich die verwendete Methode der Reduktion in funktionalen Programmiersprachen entspricht. Obwohl die Umsetzung mehr Wert auf Nachvollziehbarkeit, als auf Effizienz legt, zeigt sie, daß die Methode der abstrakten Reduktion mit Pfadanalyse auch in einer funktionalen Implementierung durchaus alltagstauglich ist und Striktheits-Information findet, die Umsetzungen anderer Methoden nicht finden. Es bestehen Möglichkeiten zur Optimierung u. a. von Programmteilen, die für jede simulierte G#-Maschinen-Anweisung ausgeführt werden. Bei vorsichtiger Einschätzung erscheint eine Halbierung der Laufzeit mit vertretbarem Aufwand erreichbar.
Gegenstand der Arbeit ist ein Gleichheitskalkül für den Kern einer nicht-strikten funktionalen Programmiersprache. Funktionale Programmiersprachen unterstützen bestens die Prinzipien Abstraktion, Einkapselung, Hierarchiesierung und Modularisierung, die gemeinhin als Grundelemente des Software-Engineering betrachtet werden. Darüber hinaus bieten funktionale Programmiersprachen aufgrund ihrer Entwicklung aus dem Lambda-Kalkül eine große Nähe zu mathematischen Modellen. Daher besitzen sie im Bereich der Programmverifikation ausgeprägte Vorteile gegenüber imperativen oder objekt-orientierten Programmiersprachen. In der Arbeit wird nun ein Gleichheitsbegriff für Ausdrücke in funktionalen Programmiersprachen entwickelt und dessen Praktikabilität durch die Implementierung eines Beweisers untermauert. Dieser Gleichheitsbegriff ist die kontextuelle Gleichheit, die Ausdrücke aufgrund ihres Terminierungsverhaltens als Unterprogramme in allen möglichen Kontexten einordnet. Kontextuelle Gleichheit wird in Kapitel 2 vorgestellt, nachdem der klassische und der sogenannte "lazy" Lambda-Kalkül eingeführt wurden. Kapitel 3 enthält einen Überblick über die funktionale Programmierung, da auch die Implementierung des o.g. Beweisers in einer funktionalen Programmiersprache, nämlich Haskell, durchgeführt wird. In Kapitel 4 wird die funktionale Kernsprache, die Gegenstand der Untersuchung sein wird, beschrieben. Sie enthält alle wesentlichen Elemente wie z.B. Funktionsdefinition und -anwendung sowie Datentypen. Im selben Kapitel wird auch der Gleichheitsbegriff für diese Kernsprache definiert. Kapitel 5 schließlich entwickelt auf Basis der zuvor erfolgten Definitionen einen Kalkül für den Gleichheitsbeweis. Außerdem wird in diesem Kapitel auch die Umsetzung dieses Gleichheitskalküls präsentiert. Aus der Dissertation von Marko Schütz werden hierbei Erkenntnisse über die Kontextanalyse verwendet, um erfüllende Belegungen von freien Variablen zu berechnen. Die Arbeit schließt mit Beispielanalysen und Meßwerten sowie einer Diskussion der Ergebnisse und möglicher Erweiterungen.
In Abschnitt 4.1 wurden Algebren auf Mengen und Relationen vorgestellt. Desweitern wurde in Abschnitt 4.2 eine zu ALC erweiterte terminologische Wissensrepräsentationssprache ALCX definiert und gezeigt, daß die in Abschnitt 4.1 vorgestellten Algebren zur Festlegung der odell-theoretischen Semantik der Sprache ALCX benutzt werden können. Als Ergebnis einer derartigen Festlegung kann jeder terminologische Ausdruck direkt mit einem algebraischen Term assoziiert werden. Desweitern können alle in den Algebren aufgeführten universellen Identitäten in semantisch äquivalente terminologische Identitäten überführt werden. Eine mittels ALCX repräsentierte Wissensbasis ist in meinem Programm mit Hilfe der in der funktionalen Programmiersprache Gofer (Version 2.28) gegebenen Möglichkeiten formuliert. Mein Programm bietet durch Simplifizierung von Anfrageausdrücken eine optimierte Lösung des aus dem Bereich der Wissensrepräsentation bekannten Retrieval-Problems. Die Simplifizierung von Anfrageausdrücken wird in meinem Programm erzielt, indem in den oben genannten Algebren erfüllte universelle Identitäten als Simplifikationshilfsmittel benutzt werden. Die in den Algebren aufgeführten universellen Identitäten bestehen stets aus zwei äquivalenten Termen, für die eine unterschiedliche Anzahl von Reduktionsschritten zur Evaluierung benötigt werden. Es existieren universelle Identitäten, bei denen unabhängig von den Instanzen der Argumentterme ein Term gegenüber einem anderen Term effizienter auswertbar ist. Bei diesen universellen Identitäten kann eine Simplifikation von einem Term zu einem anderen Term immer unproblematisch realisiert werden. Es gibt jedoch auch universelle Identitäten, bei denen die Unabhängigkeit von den Instanzen der Argumentterme nicht gegeben ist. In diesen Fällen wird ein von der Wissensbasis abhängiges Komplexitätsabschätzungsverfahren eingesetzt, um den effizienter auswertbaren Term von zwei an einer universellen Identität beteiligten Termen zu ermitteln. Daß die Simplifikation eines Anfrageausdrucks große Einsparungen bei dessen Auswertung nach sich ziehen kann, wurde an verschiedenen Beispielen in Abschnitt 5.4.4 gezeigt. Über eine weitere Möglichkeit, die zum Simplifizieren von Anfrageausdrucken verwendet werden kann, wurde in Abschnitt 5.4.5 berichtet. Die Genauigkeit der Komplexitätsabschätzung kann erhöht werden, indem das Komplexitätsabschätzungsverfahren erweitert wird. So kann beispielsweise die Komplexität der Funktion "oder" genauer abgeschätzt werden, indem für zu vereinigende Mengen überprüft wird, ob Teilmengenbeziehungen vorhanden sind. Durch eine genauere Abschätzung der Mächtigkeit entstehender Vereinigungsmengen wird die Komplexitätsabschätzung insgesamt in ihrer Genauigkeit gesteigert. Eine Änderung der Instanzen meiner terminologischen Datenbank erfordert eine Änderung des Skripts meines Programms. Indem die Instanzen-Daten in einer veränderlichen Datenbank festgehalten würden, könnte hier Abhilfe geschaffen werden. Dies könnte im Rahmen der Erstellung einer benutzterfreundlichen Ein- und Ausgabe-Schnittstelle realisiert werden.
Ziel dieser Arbeit war es, ein System zu entwickeln, mit dem Sätze von Reduktionsdiagrammen auf ihre Vollständigkeit überprüft werden können. Das System sollte in der puren, funktionalen Programmiersprache Haskell realisiert werden und speziell auf einen nichtdeterministischen Kalkül mit Konstruktoren, einem case-Konstrukt und einem rekursiven let- Ausdruck (letrec) ausgerichtet sein. Dazu wurde in Kapitel 2 der lambda-Kalkül und funktionale Programmiersprachen eingeführt, um die Entwicklung der Kalküle lambda-nd und lambda-nd,rec zu motivieren. Die Basis-Kalküle lambda-nd und lamda-nd,rec wurden in Kapitel 3 bezüglich ihrer Sprachdefinition und Reduktionsregeln vorgestellt. Die Implementierung der beiden Kalküle und der Parser für die verwendete Kernsprache wurden ebenso angegeben wie die Mechanismen zur Markierung und Reduktion der Terme. Die Unterscheidung eines reduzierbaren Terms in NO- und internen Redex, sowie deren Erkennung wurde in diesem Kapitel besonders herausgestellt, da sie die Grundlage für die zu validierenden Reduktionsdiagramme darstellt. Damit ist der Grundstock für diese Arbeit gelegt worden. In Kapitel 4 haben wir kurz Methoden vorgestellt, die lamda-Kalkülen und deren Derivate eine Bedeutung zuzumessen versuchen, um Programme oder Terme miteinander vergleichen zu können. Also nicht nur ihre Termstruktur, sondern ihr Verhalten zu vergleichen. Dabei ist festgestellt worden, daß für nichtdeterministische Kalküle nur eine Methode verfügbar ist, und zwar die der kontextuellen Äquivalenz. Da wir gängige Programmtransformationen dahingehend überprüfen wollten, ob sie der kontextuellen Äquivalenz genügen, also nicht die Auswertung oder das Ergebnis derselben verändern, haben wir ein Kontext-Lemma vorgestellt. Mit Hilfe des Kontext-Lemmas ist es uns möglich gewesen, die Gültigkeit von Beweisen in Reduktionskontexten auf beliebige Kontexte auszudehnen. Für die eigentlichen Beweise werden Reduktionsdiagramme benötigt, die Reduktionsfolgen in verschiedener Weise umstellen. Wir haben die Reduktionsdiagramme ebenfalls in Kapitel 4 definiert. Die Reduktionsdiagramme müssen an jeder Stelle einer Reduktionsfolge anwendbar sein, da sonst die Äquivalenz-Beweise nicht möglich sind. D. h. es müßte bewiesen werden, daß mindestens ein Reduktionsdiagramm einer definierten Menge von Reduktionsdiagrammen für jeden Term und jede seiner Reduktionsfolgen anwendbar ist. Der naive Weg wäre, alle Terme und seine Reduktionsfolgen dahingehend zu überprüfen. Da dies jedoch nicht möglich ist, haben wir uns dazu entschlossen so viele Terme wie möglich zu untersuchen, nicht um die Vollständigkeit der Diagramme zu beweisen, sondern um zu zeigen, daß auf viele verschiedenartige Terme Reduktionsdiagramme erfolgreich angewendet werden können. Die Generierung der Terme haben wir in Kapitel 5 ausführlich dargestellt. In Kapitel 6 haben wir die Sprache zur Darstellung von Reduktionsdiagrammen und die Implementierung der Diagramm-Validierung beschrieben. Weiterhin haben wir ein Verfahren vorgestellt, mit dem wir fehlende Diagramme für Terme suchen und meist auch finden können. Das gesamte System haben wir so aufgebaut, daß eine große Menge an Termen generiert wird, für die Diagramme anwendbar sein müssen. Wenn keines der Diagramme auf einen Term anwendbar ist, also nicht validiert werden kann, dann wird ein passendes Diagramm gesucht. Mit Hilfe des entwickelten Systems Jonah sind in Kapitel 7 verschiedene Programmtransformationen dahingehend überprüft worden, ob die angegebenen Reduktionsdiagramme für große Mengen von Termen gültig sind. Dabei ist als Ergebnis herausgekommen, daß ein vollständiger Satz an Reduktionsdiagrammen für die (cp)-Reduktion nur sehr schwer zu finden ist. Selbst neu hinzugefügte Transformationen, die dabei helfen sollten, die Schwierigkeiten zu umgehen, konnten nicht verwendet werden, da es uns ebenfalls nicht möglich gewesen ist, für sie vollständige Diagrammsätze zu finden. Daraufhin haben wir den Basis-Kalkül zweimal erweitert, um die Schwierigkeiten der (cp)-Diagramme in den Griff zu bekommen. Aber auch diese Ansätze haben kein zufriedenstellendes Ergebnis geliefert. Als positives Ergebnis dieser Arbeit kann aber festgestellt werden, daß das System Jonah bei der Entwicklung nichtdeterministischer Kalküle auf Basis von lambda-Kalkülen eine sehr gute Hilfestellung sein kann, auch wenn es nicht zum vollständigen Beweis der Gültigkeit von Reduktionsdiagrammen dienen kann.
Die Konvergenz von Medien, Telekommunikation sowie Informationstechnologie führt zu einer gesteigerten Interaktion zwischen den Computergeräten dieser drei Wirtschaftssektoren. Zugleich steigt die Anzahl mutierender Würmer, Viren und Trojanische Pferde, wie z.B. Varianten der Bagle- und Sober-Würmer oder der Netsky- und MyDoom-Viren, im Tagesrhythmus und bedrohen die Sicherheit von Computerplattformen. Die Daten der Systeme sind daher potenziellen Risiken ausgesetzt. Um dieser steigenden Bedrohung zu entgegnen, entwickelt die industrielle Initiative „Trusted Computing Group“ (TCG), ehemals „Trusted Computing Platform Alliance“ (TCPA), einen Standard, welcher die Sicherheit der verschiedenen Gerätetypen verbessern soll. Abbildung 1 dokumentiert dabei die Sicherheitsmängel, welche durch die verschiedenen Typen der Attacken oder den entdeckten Missbrauch veranschaulicht werden. Speziell Viren und der Missbrauch der Netzwerkzugänge innerhalb des Unternehmens können aus der Abbildung 1 als häufigste Ursache entnommen werden. Verlust des Laptops, nicht autorisierte Zugriffe durch Insider und Denial of Service Angriffe folgen auf den weiteren Plätzen. Die Gesamtkosten der Computerkriminalität sind zwar unter das Niveau vom Jahre 2000 gefallen, speziell von 2002 auf 2003 haben sich diese mehr als halbiert, obwohl seit 1999 besonders die Urheberrechtsverletzungen proprietärer Informationen stetig angestiegen sind. Der Verlust proprietärer Informationen steht mit 21 Prozent nicht direkt im Vordergrund der obigen Abbildung. Allerdings schlägt der Diebstahl von proprietären Informationen mit 35 Prozent der Gesamtkosten der Computerkriminalität zu buche und führt damit die geschätzten Verluste aus Abbildung 2 an. Auf Platz zwei folgen Denial of Service Angriffe, die Kosten von ca. 65,6 Millionen Dollar verursachen. Viren, Missbrauch des Netzes durch Insider sowie finanzieller Betrug folgen auf weiteren Plätzen. In der Studie vom Computer Security Institute werden die Bestrebungen der TCG, vertrauenswürdige Plattformen herzustellen, als mögliche Lösung des Problems des Diebstahls von proprietären Informationen betrachtet. Deren Effekte werden sich voraussichtlich in fünf bis zehn Jahren auf die Computersicherheit bemerkbar machen. Auch das „Federal Bureau of Investigation“ (FBI) hat mittlerweile eine Initiative zusammen mit der Entertainment- und Softwareindustrie gegen den Diebstahl von urheberrechtlich geschütztem Material abgeschlossen, da die Verluste in der Summe mehrere Billionen Dollar verursachen. Die beiden ersten Abbildungen in Verbindung mit dem dazugehörigen Zahlenmaterial belegen die Diskrepanz der TCG. Dazu stützt sich die TCG auf die steigende Anzahl an Attacken und Missbräuche, ohne die geschätzten Verluste der einzelnen Attacken zu berücksichtigen. Gerade die enorme wirtschaftliche Bedeutung von Information und deren Missbrauch offenbart allerdings einen möglichen Antrieb, die Sicherheit bestehender Rechnersysteme zu verbessern. Diese Erkenntnis ist jedoch nicht übereinstimmend mit der Triebkraft der TCG, die ihre Initiative auf die steigende Anzahl an Schwachstellen stützt, um vermutlich ihre eigentlichen Beweggründe zu verschleiern. Ziel dieser Arbeit ist zum einen den technischen Standard der TCG sowie mögliche Umsetzungen vorzustellen und zum anderen die Standardisierung unter ökonomischen Ansichten zu untersuchen, um sie anschließend zu bewerten. Dazu wird im zweiten Kapitel ein erster Einblick über das Standardisierungsgremium, deren Beweggründe sowie den historischen Kontext zwischen TCPA und TCG gegeben. Das dritte Kapitel dient als Grundlage und Einführung in die Informationsökonomie, um die Komplexität und Zusammenhänge hinsichtlich der Standardisierung und abschließenden Bewertung in den folgenden Kapiteln besser zu erfassen. Neben der Technologie und Information spielt die Auswahl der Erlöse in Verbindung mit der Preisdiskriminierung eine wichtige Rolle. Bezüglich der Standardisierung und Bewertung haben Lock-in sowie Wechselkosten erhebliche Auswirkungen auf die Kon-sumenten. Das gilt ebenfalls für die Größenvorteile, vor allem auf die Netzwerkexternalitäten. Die Standardisierung der TCG wird im vierten Kapitel ausführlicher behandelt, wobei Standards definiert, abgegrenzt und klassifiziert werden. Zudem wird die koope-rative Standardisierung in Form einer Allianz sowie die daraus folgende Problematik des Umgangs mit geistigem Eigentum eingegangen. Das fünfte Kapitel geht direkt auf die technischen Spezifikationen der TCG ein, erklärt das Grundkonzept vertrauenswürdiger Plattformen und behandelt als Schwerpunkt die Komponente des „Trusted Platform Modules“ (TPM) sowie dessen Implementierung in einen Computer. Im Anschluss daran werden im sechsten Abschnitt technischen Umsetzungen auf praktische Anwendungen und Szenarien vorgestellt. Dazu werden als Erstes verfügbare Umsetzungen sowie die Hardwarearchitektur am Beispiel von Intel LaGrande dargestellt, worauf die anschließenden Softwareanwendungen unter den beiden Betriebssystemen Windows und Linux aufbauen. Das siebte Kapitel behandelt die Bewertung der kooperativen Standardisierung und zeigt die Zusammenhänge zwischen Hardwarekompatibilität und Netzwerkexternalitäten auf. Darüber hinaus wird die Adoption dieser neuen Technologie unter statischen und dynamischen Ansätzen berechnet und abschließend die Schwächen und Risiken dieser neuen Technologie erläutert.
In dieser Diplomarbeit wurde zunächst eine Einführung in das Gebiet der Unifikationstheorie gegeben, um dann zum Teilgebiet des Kontextmatchings zu kommen. Dieses wurde in das Gesamtgebiet der Unifikation eingeordnet. In Anlehnung an [Schm2003] wurde die Komplexität einiger Einschränkungen des Kontextmatchings betrachtet. Insbesondere wurde ein Algorithmus zur Lösung linearer Kontextmatchingprobleme in polynomieller Zeit vorgestellt. Es folgte die Einführung des Transformationsalgorithmus aus [Schm2003] zur Lösung allgemeiner Kontextmatchingprobleme, wobei nach und nach verbesserte Transformationsregeln für einzelne spezielle Problemsituationen vorgestellt wurden. Über [Schm2003] hinausgehend wurden die Regeln Split: Korrespondierende Lochpfade und Konstantenelimination vorgestellt. Im Rahmen der Diplomarbeit wurden die genannten Algorithmen in der funktionalen Programmiersprache Haskell implementiert, wobei auf eine einfache Erweiterbarkeit um neue Transformationsregeln sowie alternative Heuristiken zur Auswahl der in einem Schritt anzuwendenden Transformationsregel geachtet wurde. Die Implementierung (und damit auch die in ihr implementierten Algorithmen) wurde mit Hilfe von zufällig erzeugten Termen auf ihre Leistungsfähigkeit getestet. Hauptaugenmerk lag dabei darauf, inwiefern sich Regeln, die über die Basisregeln aus Tabelle 3.4.1 hinausgehen, positiv auf die Anzahl der Transformationsschritte auswirken. Das Ergebnis ist beeindruckend: durch die Einführung komplexerer Transformationsregeln ließen sich in unseren Testfällen bis zu 87% der Transformationsschritte einsparen, im Durchschnitt immerhin noch 83%. Speziell komplexere Kontextmatchingprobleme mit einer größeren Anzahl an Kontextvariablen profitieren hiervon. Insbesondere die Erkennung korrespondierender Positionen in Verbindung mit der Regel Split führte zu erheblichen Verbesserungen. Die implementierten Algorithmen zur Erkennung korrespondierender Positionen stellen teilweise nur ein notwendiges Kriterium für die Existenz korrespondierender Löcher dar. Dies kann zu fehlerhaften Erkennungen solcher Positionen führen. Wie sich in unseren Tests zeigte, scheint das jedoch kein gravierendes Problem zu sein, da die entsprechenden Split- Transformationen ohnehin äußerst sparsam eingesetzt werden.
Wir haben ein Softwaresystem entwickelt, das in der Lage ist, Beschreibungen von Termersetzungssystemen höherer Ordnung, deren Reduktionsregeln auf einer strukturellen operationalen Semantik basieren, einzulesen und zu interpretieren. Das System ist dabei fähig, Reduktionskontexte für die Redexsuche zu benutzen, die entweder vom Benutzer definiert werden können oder automatisch anhand der strikten Positionen berechnet werden. Außerdem dürfen Kontexte und spezielle Definitionen für Term-Mengen, die wir Domains nennen, in den Reduktionsregeln verwendet werden. Mit dem resultierenden Reduktionssystem-Format können wir somit nicht nur den „lazy“ Lambda-Kalkül, den Call-by-Value Lambda-Kalkül und verwandte, um Konstruktoren und Fallunterscheidungen erweiterte Kalküle, wie die in Kapitel 4 vorgestellten Kernsprachen KFP und PCF, darstellen, sondern auch den (in Abschnitt 4.3 vorgestellten) Call-by-Need Lambda-Kalkül, welcher sich durch die Verwendung von Kontexten innerhalb der Regeln deutlich von den anderen Kalkülen abhebt. Allerdings hält sich der Call-by-Need Lambda-Kalkül damit nicht an das in Kapitel 5 vorgestellte GDSOS-Format, das u.a. sicherstellt, dass Bisimulation eine Kongruenz ist. Wir haben dabei in Abschnitt 5.3.3 bewiesen, dass sich ein GDSOS-Reduktionssystem in ein äquivalentes strukturiertes Auswertungssystem nach Howe übersetzen lässt. Unser System ist in der Lage, die GDSOS-Bedingungen zu prüfen und gibt eine Warnung aus, falls eine der nötigen Bedingungen nicht erfüllt ist (wobei aus dieser auch gleich der Grund des Verstoßes hervorgeht). Wie wir gesehen haben, ist unser System nicht nur befähigt, die einzelnen Reduktionsschritte für kleinere Bespiele ordnungsgemäß auszuführen, sondern es ist durchaus in der Lage, auch aufwendigere KFP-Ausdrücke, wie in unserem Quicksort- Beispiel, auszuwerten.
In der vorliegenden Diplom-Arbeit wurde das in [19] vorgeschlagene Modell zur Partitionierung hybrider Systeme diskutiert und die Anwendbarkeit verschiedener verschiedener Optimierungsverfahren auf das Problem untersucht.
Hierbei wurde der Systemgraph um die Ein-/Ausgabe-Blöcke erweitert, damit der Systemgraph eine eine konsistente Erweiterung des des Graphen-Modells darstellt. Weiterhin wurden die Probleme und Einschränkungen aufgezeigt, die sich bei der Abbildung eines hybriden Systems auf den Systemgraphen ergeben.
In dieser Arbeit wurde eine Geometrieuntersuchung am FABP-Molekülmodell durchgeführt. Um 3J-Kopplungsinformation für die Diederwinkelanalyse zu bestimmen, wurden J-modulierte [15N,1H]-COSY-Experimente durchgeführt. Mit Hilfe numerischer Anpassungsroutinen wurden die Signalintensitäten quantitativ ausgewertet, um sehr genaue 3JHN,H-alpha-Kopplungskonstanten zu erhalten. Diese Kopplungskonstanten wurden in Kraftfeldrechnungen als experimentelle Randbedingungen für die Phi-Diederwinkel des Proteinrückgrates berücksichtigt. Dadurch ist eine Aussage über die Winkelverteilung und über die zeitlich gemittelten Kopplungseffekte im Proteinmodell möglich. Die aus der Molekulardynamiksimulation bestimmten 3JHN,H-alpha-Kopplungskonstanten wurden mit den experimentellen verglichen. Die Analyse ergab, daß die den beta-Faltblättern zugewandten Ränder der alpha-Helixbereiche sowie zwei der zehn beta-Faltblattbereiche sehr flexible Teilabschnitte aufweisen. Diese Arbeit konnte somit die Überlegungen stützen, die vor allem den flexiblen Teilabschnitt zwischen der alpha-II-Helix und dem beta-B-Faltblattbereich für die Funktion des Proteins verantwortlich machen.