Refine
Year of publication
Document Type
- Article (31801)
- Part of Periodical (11989)
- Book (8348)
- Doctoral Thesis (5772)
- Part of a Book (3973)
- Working Paper (3404)
- Review (2949)
- Preprint (2420)
- Contribution to a Periodical (2399)
- Conference Proceeding (1776)
Language
- German (43471)
- English (30837)
- French (1071)
- Portuguese (843)
- Multiple languages (320)
- Spanish (309)
- Croatian (302)
- Italian (198)
- mis (174)
- Turkish (168)
Keywords
- Deutsch (1086)
- Literatur (880)
- taxonomy (774)
- Deutschland (553)
- Rezension (516)
- new species (459)
- Rezeption (354)
- Frankfurt <Main> / Universität (341)
- Übersetzung (330)
- Geschichte (302)
Institute
- Medizin (7883)
- Präsidium (5281)
- Physik (4999)
- Extern (2742)
- Wirtschaftswissenschaften (2738)
- Gesellschaftswissenschaften (2383)
- Biowissenschaften (2213)
- Biochemie und Chemie (1985)
- Frankfurt Institute for Advanced Studies (FIAS) (1897)
- Informatik (1738)
This paper is focused on the coordination of order and production policy between buyers and suppliers in supply chains. When a buyer and a supplier of an item work independently, the buyer will place orders based on his economic order quantity (EOQ). However, the buyer s EOQ may not lead to an optimal policy for the supplier. It can be shown that a cooperative batching policy can reduce total cost significantly. Should the buyer have the more powerful position to enforce his EOQ on the supplier, then no incentive exists for him to deviate from his EOQ in order to choose a cooperative batching policy. To provide an incentive to order in quantities suitable to the supplier, the supplier could offer a side payment. One critical assumption made throughout in the literature dealing with incentive schemes to influence buyer s ordering policy is that the supplier has complete information regarding buyer s cost structure. However, this assumption is far from realistic. As a consequence, the buyer has no incentive to report truthfully on his cost structure. Moreover there is an incentive to overstate the total relevant cost in order to obtain as high a side payment as possible. This paper provides a bargaining model with asymmetric information about the buyer s cost structure assuming that the buyer has the bargaining power to enforce his EOQ on the supplier in case of a break-down in negotiations. An algorithm for the determination of an optimal set of contracts which are specifically designed for different cost structures of the buyer, assumed by the supplier, will be presented. This algorithm was implemented in a software application, that supports the supplier in determining the optimal set of contracts.
Komplexität von Gitterproblemen : Nicht-Approximierbarkeit und Grenzen der Nicht-Approximierbarkeit
(2000)
Ein Gitter vom Rang n ist die Menge der ganzzahligen Linerkombinationen von n linear unabhängigen Vektoren im Rm. Unter der Annahme P <> NP beweisen wir, daß kein Polynomialzeit-Algorithmus existiert, der eine kürzeste Gitterbasis bis auf einen Faktor nO exp(1/log log n) berechnet, wobei die Länge einer Menge von Vektoren durch die maximale Euklidische Länge der Vektoren definiert ist. Weiter zeigen wir, daß eine Verbesserung dieses Resultates bis hin zu einem Faktor n/ sqrt(log n) unter plausiblen Annahmen nicht möglich ist. Ein simultaner Diophantischer Best Approximations Nenner für reelle Zahlen alpha1, .... , alpha n und Hauptnennerschranke N ist eine natürliche Zahl q mit 1 <= q >= N, so daß maxi minp2Z |q alpha i - p| minimal ist. Unter der Annahme, daß die Klasse NP keine fast-polynomiellen Algorithmen besitzt, beweisen wir, daß kein Polynomialzeit-Algorithmus existiert, der für gegebene rationale Zahlen. Ein Gitter vom Rang n ist die Menge der ganzzahligen Linerkombinationen von n linear unabhängigen Vektoren im Rm. Unter der Annahme P 6= NP beweisen wir, daß kein Polynomialzeit-Algorithmus existiert, der eine kürzeste Gitterbasis bis auf einen Faktor nO(1= log log n) berechnet, wobei die Länge einer Menge von Vektoren durch die maximale Euklidische Länge der Vektoren definiert ist. Weiter zeigen wir, daß eine Verbesserung dieses Resultates bis hin zu einem Faktor n=plog n unter plausiblen Annahmen nicht möglich ist. Ein simultaner Diophantischer Best Approximations Nenner für reelle Zahlen alpha1, .... , alpha n und Hauptnennerschranke N ist eine natürliche Zahl q mit 1 <= q <= N, so daß maxi ...... minimal ist. Unter der Annahme, daß die Klasse NP keine fast-polynomiellen Algorithmen besitzt, beweisen wir, daß kein Polynomialzeit-Algorithmus existiert, der für gegebene rationale Zahlen alpha1,......, alphan und eine Hauptnennerschranke N einen Nenner ~q mit 1 <= ~q <= f(n)N berechnet, so daß ~q bis auf einen Faktor f(n) = nO(1= log0:5+epsilon n) ein Best Approximations Nenner ist, wobei epsilon > 0 eine beliebige Konstante ist. Wir zeigen, daß eine Verbesserung dieses Resultates bis hin zu einem Faktor n=log n unter plausiblen Annahmen nicht mölich ist. Wir untersuchen die Konsequenzen dieser Resultate zur Konstruktion von im Durchschnitt schwierigen Gitterproblemen.
Als Methode zur inhaltlichen Erschließung von Texten, dem überwiegenden Ausgangsmaterial empirischer Untersuchungen, kommt der Inhaltsanalyse in den Sozialwissenschaften eine Schlüsselstellung zu. Allgemein wird unterschieden zwischen quantitativen, wörterbuchbasierten und qualitativen, »hermeneutischen« Verfahren; gemäß der weithin vertretenen Lehrmeinung ist nur die quantitative, einzelwortorientierte Inhaltsanalyse von Computern durchführbar. Der Autor zeigt auf, daß sich auf der Grundlage der Dichotomisierung »quantitativ-qualitativ « kein geeignetes Kriterium ergibt, um die Frage nach Reichweite und Grenzen der algorithmischen Inhaltsanalyse abschließend zu beantworten. Unter interdisziplinärem Rekurs auf aktuelle Entwicklungen in Computerlinguistik, Künstlicher Intelligenz und Kognitionswissenschaften wird der Nachweis erbracht, daß die computergestützte Textinhaltserschließung nicht notwendig auf die Einzelwortanalyse beschränkt ist. Für ein zentrales qualitatives Problem der klassischen wörterbuchbasierten Inhaltsanalyse, die referentielle Interpretation von Pronomen, wird eine algorithmische Lösung erarbeitet, softwaretechnisch umgesetzt und unter Anwendungsbedingungen empirisch evaluiert. Mit der vorliegenden Arbeit gelingt der Nachweis, daß die im Kontext der »Qualitativ- Quantitativ « - Kontroverse postulierten »prinzipiellen Grenzen« der computergestützten Inhaltsanalyse nichtzutreffend, da auf algorithmischem Wege transzendierbar sind. Somit ergeben sich völlig neue Perspektiven für den Einsatz von Computern in der Inhaltsanalyse.
Die zunehmende Monopolisierung auf dem Markt für Informationsressourcen im akademischen Sektor führte in den vergangenen Jahren zu einer verstärkten Bildung von Bibliothekskonsortien auf der Abnehmerseite, die einen Gegenpol in Form einer Einkaufsgenossenschaft darstellen sollten [McCa02]. Diese Tendenzen lassen sich in verschiedenen Ländern wie etwa in Deutschland, England, der Schweiz und der Niederlande beobachten [Okerso]. In den USA sind Konsortien eher selten zu finden; das größte Konsortium ist hier OHIO-Link (http://www.lib.ohio-state.edu/). In Deutschland richten sich die meisten Konsortien wegen der föderalen Finanzierungsstrukturen regional aus; überregionale bzw. deutschlandweite Konsortien sind derzeit noch selten. Ein Zusammenschluss auf thematischer Grundlage findet derzeit so gut wie gar nicht statt, vielmehr werden möglichst viele Bibliotheken in Konsortien unabhängig von den an den jeweiligen Standorten betriebenen Forschungsschwerpunkten eingebunden [AnDe02]....
Elektronische (digitale) Zeitschriften spielen seit mehreren Jahren eine zunehmend wichtigere Rolle in der Informationsversorgung von Wissenschaft und Forschung. Während jedoch die Nutzungsformen sich so gut wie vollständig an den Standards des www mit all seinen Vorzügen orientieren, sind die Preisbildungsmechanismen noch stark an der Welt der gedruckten Zeitschriften orientiert. Sie unterliegen allerdings zur Zeit einem erheblichen Wandel, ohne dass erkennbar wäre, welche Preisstrukturen zukünftig den Markt bestimmen werden. Das seit November 2001 laufende DFG-Projekt "Perspektiven für den Bezug elektronischer Informationsressourcen in der Bundesrepublik Deutschland" hat sich zum Ziel gesetzt, die Marktsituation für elektronische Informationsversorgung im hochschulischen Bereich zu analysieren und davon ausgehend Perspektiven abzuleiten. In einer ersten Phase sollen zunächst die Nutzungsgewohnheiten seitens der Wissenschaftler und Studierenden untersucht werden. Die Ergebnisse werden in der vorliegenden Arbeit exemplarisch aufgezeigt, eine detaillierte Nutzungsanalyse wird zu einem späteren Zeitpunkt veröffentlicht.
Eine bedeutende Stelle der betrieblichen Funktionen nimmt die Beschaffung der Ware am Markt ein. Die Organisation des Beschaffungswesens ist dabei integraler Bestandteil der Unternehmensstrategie und führung. Die Beschaffung im engeren Sinne umfasst dabei den Einkauf von Anlagegütern, Roh-, Hilfs- und Betriebsstoffen, Fertigwaren sowie von Dienstleistungen (z. B. Transportleistungen) und Rechten (z. B. Lizenzen aus Patenten). Die Beschaffung ist neben der Produktions- und Absatzfunktion einer der Hauptbereiche betrieblicher Planung und Leistungserstellung [Bichler/Krohn 2001]. Die Hauptaufgabe des Einkaufs im Industrieunternehmen besteht in der Beschaffung von Materialen und Teilen nach den von den zuständigen Fachabteilungen vorgegebenen Qualitätsvorschriften, zu günstigen Konditionen und zum richtigen Zeitpunkt, wodurch die termingerechte Produktion sicher gestellt werden kann. Eine weiterführende Aufgabe des Einkaufs besteht in einer Analyse des Beschaffungsmarktes sowie in der Aufbereitung und Weitergabe von Informationen an den Vertrieb. Es sind die Hersteller auf dem Markt zu suchen und zu katalogisieren, welche die entsprechenden Materialien in gleich bleibender Qualität und zu günstigen Preisen liefern können [Bichler/Krohn 2001]. Die Organisation des Einkaufsprozesses stellt einen bedeutenden Problemfokus für die Unternehmensleitung dar. Gegenstand dieser Untersuchung ist die Fragestellung, wie sich Einkaufgenossenschaften im Bibliothekswesen optimal bilden sollen. Die Frage der Optimalität muss dazu zunächst präzisiert werden und wird vor dem Hintergrund verschiedener Zielsetzungen näher diskutiert. Einkaufsgenossenschaften und verbünde finden sich in der Praxis immer häufiger und stellen probate Mittel dar, die Kosten für den Bezug von nötigen Betriebsmaterialen nachhaltig zu senken. Im Sektor der wissenschaftlichen Informationsversorgung können seit einigen Jahren im Bereich der elektronischen Informationsressourcen ebenfalls Einkaufsverbünde in Form von Bibliothekskonsortien beobachtet werden. Ziel dieser Genossenschaften ist es, gemeinsam Lizenzen für elektronische Informationen zu erwerben. Die derzeitige Bezugspraxis zeigt, dass Konsortien überwiegend regional ausgerichtet sind und weniger auf thematischer Ebene agieren. Auch die Größe sowie Nachfragestruktur und intensität finden weitestgehend noch keine Beachtung. Diese Arbeit untersucht Vor- und Nachteile von Einkaufgenossenschaften und diskutiert verschiedene Entscheidungsmodelle zur Bestimmung einer optimalen Konsortialstruktur vor dem Hintergrund der derzeitig gegebenen Marktstrukturen im Sektor der wissenschaftlichen Informationsversorgung.
Die Arbeit ist Teil der konzeptionellen Vorbereitung einer Dissertation zum Thema Innovationsfinanzierung im Mittelstand. Sie stellt gleichzeitig die Grundlage einer explorativen Erhebung zur Innovationstätigkeit und Finanzierungsproblematik Kunststoff verarbeitender Unternehmen der südlichen Westpfalz dar, welche im Sommer 2004 durchgeführt wurde. Innovationspolitische Diskussionen konzentrieren sich in Deutschland fast ausschließlich auf so genannte High Tech-Industrien. Unter Verwendung von Indikatoren zur Messung des Personal- und des Investitionsaufwandes in Forschungs- und Entwicklungsabteilungen, der Kooperationshäufigkeit zwischen Forschungseinrichtungen und Unternehmen oder Patentanmeldungen werden Branchen hinsichtlich Innovativität und nachhaltiger Förderwürdigkeit bewertet. Aufgrund fehlender alternativer Indikatoren zur Innovationstätigkeit in Unternehmen werden weite Teile des Mittelstandes ausgeblendet. Regionen, in denen sich traditionelle Branchen konzentrieren, werden für die dynamische Entwicklung der Volkswirtschaft als weniger bedeutend eingestuft. So liegen beispielsweise die FuE-Aufwendungen der Kunststoff verarbeitenden Industrie unter dem Durchschnitt des verarbeitenden Gewerbes. Sie ist eine typische Zulieferindustrie. Über Interaktionen mit Zulieferern und Kunden erschließen sich Kunststoff verarbeitende Unternehmen wichtige Innovationsimpulse. Mit praktischen Kompetenzen generiert sie einen Mehrwert an technologischem Fortschritt für eine Vielzahl vor- und nachgelagerter Industriezweige. Die Beziehungen der Kunststoffverarbeiter zu ihren Kunden sind stark projektbezogen. Es dominieren inkrementelle Innovationen. Die Struktur der Branche unterliegt daher einem stetigen Wandel. Erfolgreiche lohnfertigende Zulieferer werden zu System-Zulieferern oder bringen eigene Produkte auf den Markt. Die statistische Erfassung der Innovationsleistungen der Branche wird durch ihre Zuliefer-Rolle zusätzlich erschwert. Auch die Ableitung des tatsächlichen Innovationsaufwandes kann nicht ohne weiteres erfolgen. Es bedarf eines angepassten Innovationsverständnisses. Ziel der Arbeit ist es, ein Verständnis für die Innovationsleistungen einer mittelständisch geprägten, in Wertschöpfungsketten eingebetteten Low Tech Branche zu entwickeln. Es sollen Ansatzpunkte für eine Klassifikation der Innovationsaktivitäten und aufwendungen erarbeitet werden. Nach einer kurzen Diskussion der Unzweckmäßigkeit einer einseitigen Verwendung FuE-basierter Indikatoren werden im dritten Kapitel für die Kunststoff verarbeitenden Industrie Aspekte branchenspezifischer Innovationsprozesse ermittelt und klassifiziert. Die Entwicklung von Produkt-, Werkstoff- und Werkzeugkonzepten durch Kunststoff verarbeitende Unternehmen werden als zentrale Innovationsaktivitäten der Branche herausgearbeitet. Das letzte Kapitel dient der Diskussion der zu erwartenden Risiken und Investitionsaufwendungen dieser Entwicklungsleistungen. Mögliche Finanzierungsformen werden abgeleitet.
This paper provides global terrestrial surface balances of nitrogen (N) at a resolution of 0.5 by 0.5 degree for the years 1961, 1995 and 2050 as simulated by the model WaterGAP-N. The terms livestock N excretion (Nanm), synthetic N fertilizer (Nfert), atmospheric N deposition (Ndep) and biological N fixation (Nfix) are considered as input while N export by plant uptake (Nexp) and ammonia volatilization (Nvol) are taken into account as output terms. The different terms in the balance are compared to results of other global models and uncertainties are described. Total global surface N surplus increased from 161 Tg N yr-1 in 1961 to 230 Tg N yr-1 in 1995. Using assumptions for the scenario A1B of the Special Report on Emission Scenarios (SRES) of the International Panel on Climate Change (IPCC) as quantified by the IMAGE model, total global surface N surplus is estimated to be 229 Tg N yr-1 in 2050. However, the implementation of these scenario assumptions leads to negative surface balances in many agricultural areas on the globe, which indicates that the assumptions about N fertilizer use and crop production changes are not consistent. Recommendations are made on how to change the assumptions about N fertilizer use to receive a more consistent scenario, which would lead to higher N surpluses in 2050 as compared to 1995.
The Land and Water Development Division of the Food and Agriculture Organization of the United Nations and the Johann Wolfgang Goethe University, Frankfurt am Main, Germany, are cooperating in the development of a global irrigation-mapping facility. This report describes an update of the Digital Global Map of Irrigated Areas for the continent of Asia. For this update, an inventory of subnational irrigation statistics for the continent was compiled. The reference year for the statistics is 2000. Adding up the irrigated areas per country as documented in the report gives a total of 188.5 million ha for the entire continent. The total number of subnational units used in the inventory is 4 428. In order to distribute the irrigation statistics per subnational unit, digital spatial data layers and printed maps were used. Irrigation maps were derived from project reports, irrigation subsector studies, and books related to irrigation and drainage. These maps were digitized and compared with satellite images of many regions. In areas without spatial information on irrigated areas, additional information was used to locate areas where irrigation is likely, such as land-cover and land-use maps that indicate agricultural areas or areas with crops that are usually grown under irrigation. Contents 1. Working Report I: Generation of a map of administrative units compatible with statistics used to update the Digital Global Map of Irrigated Areas in Asia 2. Working Report II: The inventory of subnational irrigation statistics for the Asian part of the Digital Global Map of Irrigated Areas 3. Working Report III: Geospatial information used to locate irrigated areas within the subnational units in the Asian part of the Digital Global Map of Irrigated Areas 4. Working Report IV: Update of the Digital Global Map of Irrigated Areas in Asia, Results Maps
Pseudorandom function tribe ensembles based on one-way permutations: improvements and applications
(1999)
Pseudorandom function tribe ensembles are pseudorandom function ensembles that have an additional collision resistance property: almost all functions have disjoint ranges. We present an alternative to the construction of pseudorandom function tribe ensembles based on oneway permutations given by Canetti, Micciancio and Reingold [CMR98]. Our approach yields two different but related solutions: One construction is somewhat theoretic, but conceptually simple and therefore gives an easier proof that one-way permutations suffice to construct pseudorandom function tribe ensembles. The other, slightly more complicated solution provides a practical construction; it starts with an arbitrary pseudorandom function ensemble and assimilates the one-way permutation to this ensemble. Therefore, the second solution inherits important characteristics of the underlying pseudorandom function ensemble: it is almost as effcient and if the starting pseudorandom function ensemble is efficiently invertible (given the secret key) then so is the derived tribe ensemble. We also show that the latter solution yields so-called committing private-key encryption schemes. i.e., where each ciphertext corresponds to exactly one plaintext independently of the choice of the secret key or the random bits used in the encryption process.
We introduce the relationship between incremental cryptography and memory checkers. We present an incremental message authentication scheme based on the XOR MACs which supports insertion, deletion and other single block operations. Our scheme takes only a constant number of pseudorandom function evaluations for each update step and produces smaller authentication codes than the tree scheme presented in [BGG95]. Furthermore, it is secure against message substitution attacks, where the adversary is allowed to tamper messages before update steps, making it applicable to virus protection. From this scheme we derive memory checkers for data structures based on lists. Conversely, we use a lower bound for memory checkers to show that so-called message substitution detecting schemes produce signatures or authentication codes with size proportional to the message length.
A memory checker for a data structure provides a method to check that the output of the data structure operations is consistent with the input even if the data is stored on some insecure medium. In [8] we present a general solution for all data structures that are based on insert(i,v) and delete(j) commands. In particular this includes stacks, queues, deques (double-ended queues) and lists. Here, we describe more time and space efficient solutions for stacks, queues and deques. Each algorithm takes only a single function evaluation of a pseudorandomlike function like DES or a collision-free hash function like MD5 or SHA for each push/pop resp. enqueue/dequeue command making our methods applicable to smart cards.
We present efficient non-malleable commitment schemes based on standard assumptions such as RSA and Discrete-Log, and under the condition that the network provides publicly available RSA or Discrete-Log parameters generated by a trusted party. Our protocols require only three rounds and a few modular exponentiations. We also discuss the difference between the notion of non-malleable commitment schemes used by Dolev, Dwork and Naor [DDN00] and the one given by Di Crescenzo, Ishai and Ostrovsky [DIO98].
We address to the problem to factor a large composite number by lattice reduction algorithms. Schnorr has shown that under a reasonable number theoretic assumptions this problem can be reduced to a simultaneous diophantine approximation problem. The latter in turn can be solved by finding sufficiently many l_1--short vectors in a suitably defined lattice. Using lattice basis reduction algorithms Schnorr and Euchner applied Schnorrs reduction technique to 40--bit long integers. Their implementation needed several hours to compute a 5% fraction of the solution, i.e., 6 out of 125 congruences which are necessary to factorize the composite. In this report we describe a more efficient implementation using stronger lattice basis reduction techniques incorporating ideas of Schnorr, Hoerner and Ritter. For 60--bit long integers our algorithm yields a complete factorization in less than 3 hours.
Based on the quadratic residuosity assumption we present a non-interactive crypto-computing protocol for the greater-than function, i.e., a non-interactive procedure between two parties such that only the relation of the parties' inputs is revealed. In comparison to previous solutions our protocol reduces the number of modular multiplications significantly. We also discuss applications to conditional oblivious transfer, private bidding and the millionaires' problem.
Elektronische Informationsressourcen, wie beispielsweise elektronische Zeitschriften und Datenbanken, gewannen in den letzten Jahren zunehmend an Bedeutung im Feld der akademischen Literaturversorgung. Mit diesem Trend einhergehend konnten Veränderungen der Bezugspraxis bei Bibliotheken einerseits und neue Preis- und Geschäftsmodelle bei Verlagen andererseits beobachtet werden. Neben der bequemeren Nutzbarkeit für die Leser bietet das neue Medium auch neue Formen des Kostencontrollings und der Optimierung für die Abnehmer. Dieser Workshop soll sich mit der Frage der Kostenrechnung und -verteilung für Konsortien für elektronische Informationsressourcen insbesondere eJournals beschäftigen. Dabei werden die neuen Möglichkeiten der Nutzungsmessung besonders berücksichtigt. Neben den theoretischen Ansätzen werden auch konkrete Beispielrechnungen durchgeführt und die Praktikabilität für die Umsetzung in der Praxis im besonderen Maße diskutiert.
We propose a new security measure for commitment protocols, called Universally Composable (UC) Commitment. The measure guarantees that commitment protocols behave like an \ideal commitment service," even when concurrently composed with an arbitrary set of protocols. This is a strong guarantee: it implies that security is maintained even when an unbounded number of copies of the scheme are running concurrently, it implies non-malleability (not only with respect to other copies of the same protocol but even with respect to other protocols), it provides resilience to selective decommitment, and more. Unfortunately two-party uc commitment protocols do not exist in the plain model. However, we construct two-party uc commitment protocols, based on general complexity assumptions, in the common reference string model where all parties have access to a common string taken from a predetermined distribution. The protocols are non-interactive, in the sense that both the commitment and the opening phases consist of a single message from the committer to the receiver.
We review the representation problem based on factoring and show that this problem gives rise to alternative solutions to a lot of cryptographic protocols in the literature. And, while the solutions so far usually either rely on the RSA problem or the intractability of factoring integers of a special form (e.g., Blum integers), the solutions here work with the most general factoring assumption. Protocols we discuss include identification schemes secure against parallel attacks, secure signatures, blind signatures and (non-malleable) commitments.
Die Arbeitsgruppe für Chemie und Physik der Atmosphäre am Institut für Meteorologie und Geophysik der Johann Wolfgang Goethe-Universität Frankfurt befasst sich unter anderem mit der Entwicklung einer Continous Flow Diffusion Chamber zur Erfassung und Klassifikation von CCN und IN. Diese Partikel besitzen eine Größe im Mikrometerbereich und sind somit nicht leicht zu erfassen und zu unterscheiden. Bei vergleichbaren Versuchen beschränkte sich bisher die automatische Auswertung auf die Anzahl der Partikel. Es gibt noch kein Verfahren, welches eine Klassifikation in CCN und IN videobasiert vornehmen kann. Es lag ebenfalls kein reales Bildmaterial vor, welches zu Testzwecken für die Klassifikation geeignet gewesen wäre. Basierend auf den physikalischen und meteorologischen Grundlagen wurde mittels Raytracing ein künstlicher Bilddatensatz mit kleinen Eiskristallen und Wassertröpfchen unter verschiedenen Betrachtungsverhältnissen erstellt. Anhand dieses Bilddatensatzes wurde dann ein Verfahren zur Klassifikation entwickelt und prototypisch implementiert, welches dies mittels Methoden aus der graphischen Datenverarbeitung und durch Berechnung der Momente vornimmt. Es war notwendig, Verfahren aus der Kameratechnik zu betrachten, die später in der realen Anwendung mit sehr kurzzeitiger Belichtung, geeigneter Optik und hochauflösender CCD-Kamera detaillierte Bilder von Objekten in der Größe von einigen 10µm liefern können.
We show that non-interactive statistically-secret bit commitment cannot be constructed from arbitrary black-box one-to-one trapdoor functions and thus from general public-key cryptosystems. Reducing the problems of non-interactive crypto-computing, rerandomizable encryption, and non-interactive statistically-sender-private oblivious transfer and low-communication private information retrieval to such commitment schemes, it follows that these primitives are neither constructible from one-to-one trapdoor functions and public-key encryption in general. Furthermore, our separation sheds some light on statistical zeroknowledge proofs. There is an oracle relative to which one-to-one trapdoor functions and one-way permutations exist, while the class of promise problems with statistical zero-knowledge proofs collapses in P. This indicates that nontrivial problems with statistical zero-knowledge proofs require more than (trapdoor) one-wayness.
We show lower bounds for the signature size of incremental schemes which are secure against substitution attacks and support single block replacement. We prove that for documents of n blocks such schemes produce signatures of \Omega(n^(1/(2+c))) bits for any constant c>0. For schemes accessing only a single block resp. a constant number of blocks for each replacement this bound can be raised to \Omega(n) resp. \Omega(sqrt(n)). Additionally, we show that our technique yields a new lower bound for memory checkers.
Gleichgewichte auf Überschussmärkten : Theorie und Anwendbarkeit auf die Regelenergiezone der RWE
(2003)
Diese Version entspricht im wesentlichen der begutachteten Version bis auf die Kürzung von Satz 3.3.1 um einen für den Rest unbedeutenden Teil. Das Ziel folgender Arbeit ist es, mit einem intuitiven Ansatz eine spezielle Wettbewerbsform zweier interagierender Märkte zu modellieren und anschließend zu analysieren. Abschließend werden die theoretischen Ergebnisse mit den Beobachtungen an einem existierenden Markt - dem deutschen Energiemarkt - verglichen. In dieser behandelten Wettbewerbsform wird ein nicht lagerbares Gut an zwei aneinander gekoppelten Märkten gehandelt. Während Handel und Preisfindung am ersten Markt den üblichen Gepflogenheiten folgen, müssen alle Teilnehmer sämtliche Güter, welche nicht unmittelbar nach Lieferung verbraucht werden, am zweiten Marktplatz (dem Überschussmarkt) gegen ein gewisses Entgelt zur Verfügung stellen. Alle Teilnehmer, welche nicht genügend Güter am ersten Markt geordert haben, werden auf dem Überschussmarkt zu einem gewissen Preis mit der noch benötigten Menge versorgt. Einem Marketmaker auf dem zweiten Marktplatz fällt die Aufgabe zu, einen Preis festzustellen, zu dem diejenigen entschädigt werden, welche ihre Überschüsse zur Verfügung stellen müssen bzw. den diejenigen zu bezahlen haben, deren Gütermangel ausgeglichen wird. Weiterhin stellt dieser sicher, dass zu jedem Zeitpunkt genügend Güter vorhanden sind, so dass der Bedarf aller Teilnehmer zu jedem Zeitpunkt sichergestellt ist. Ziel ist es nun herauszufinden, welche gewinnmaximierenden Einkaufsstrategien die Marktteilnehmer verfolgen sollten und welche Konsequenzen sich daraus auf den deutschen Energiemarkt ableiten lassen.
Aufgebautes Zwei-Farben Lasersystem: Das für diese Arbeit aufgebaute Zwei-Farben Lasersystem erfüllt im Hinblick auf Abstimmbarkeit wie auch auf die erreichbare Ausgangsleistung die für diese Arbeit gesetzten Ziele. Für weiterführende Experimente muss allerdings berücksichtigt werden, dass für eine Steigerung der Ausgangsleistung, wie auch eine weiterführende Stabilisierung weitere Untersuchungen nötig sind, bei denen aber das jetzige System als Grundlage dienen kann und die mit ihm gewonnenen Erkenntnisse berücksichtigt werden müssen. Auch die verwendete Nahfeld-Beleuchtung erfüllt vor allem mit der automatischen Steuerung verknüpft wertvolle Dienst bei der Charakterisierung der untersuchen LT-GaAs Photomischer. Dieses System ist allerdings nicht geeignet, als direkter Entwurf für das endgültige System des SOFIA- oder ALMA-Projektes anzusehen, was auch nie seine Aufgabe war. Numerische Simulation: Die in dieser Arbeit vorgestellte numerische Simulation des DC-Stromverhaltens stellt einen guten Ansatz dar, die Effekte, die durch eine inhomogene Beleuchtung der Photomischer bedingt durch die verwendete Glasfaser entstehen, quantitativ und qualitativ zu erfassen und sie mit realen Photomischern und den durchgeführten Messungen in Verbindung zu bringen. Durchgeführte Nahfeld-Messungen: Die in dieser Arbeit vorgestellten automatischen Nahfeld-Messungen über einen 1D- und 2D-Bereich ermöglichen mit Hilfe des aufgebauten Lasersystems die in dieser Arbeit untersuchten LT-GaAs Photomischer in ihrem Verhalten zu untersuchen, wie es auch möglich ist, ein vollständiges Kennlinien-Feld aufzunehmen.
Given a real vector alpha =(alpha1 ; : : : ; alpha d ) and a real number E > 0 a good Diophantine approximation to alpha is a number Q such that IIQ alpha mod Zk1 ", where k \Delta k1 denotes the 1-norm kxk1 := max 1id jx i j for x = (x1 ; : : : ; xd ). Lagarias [12] proved the NP-completeness of the corresponding decision problem, i.e., given a vector ff 2 Q d , a rational number " ? 0 and a number N 2 N+ , decide whether there exists a number Q with 1 Q N and kQff mod Zk1 ". We prove that, unless ...
Given x small epsilon, Greek Rn an integer relation for x is a non-trivial vector m small epsilon, Greek Zn with inner product <m,x> = 0. In this paper we prove the following: Unless every NP language is recognizable in deterministic quasi-polynomial time, i.e., in time O(npoly(log n)), the ℓinfinity-shortest integer relation for a given vector x small epsilon, Greek Qn cannot be approximated in polynomial time within a factor of 2log0.5 − small gamma, Greekn, where small gamma, Greek is an arbitrarily small positive constant. This result is quasi-complementary to positive results derived from lattice basis reduction. A variant of the well-known L3-algorithm approximates for a vector x small epsilon, Greek Qn the ℓ2-shortest integer relation within a factor of 2n/2 in polynomial time. Our proof relies on recent advances in the theory of probabilistically checkable proofs, in particular on a reduction from 2-prover 1-round interactive proof-systems. The same inapproximability result is valid for finding the ℓinfinity-shortest integer solution for a homogeneous linear system of equations over Q.
We analyse a continued fraction algorithm (abbreviated CFA) for arbitrary dimension n showing that it produces simultaneous diophantine approximations which are up to the factor 2^((n+2)/4) best possible. Given a real vector x=(x_1,...,x_{n-1},1) in R^n this CFA generates a sequence of vectors (p_1^(k),...,p_{n-1}^(k),q^(k)) in Z^n, k=1,2,... with increasing integers |q^{(k)}| satisfying for i=1,...,n-1 | x_i - p_i^(k)/q^(k) | <= 2^((n+2)/4) sqrt(1+x_i^2) |q^(k)|^(1+1/(n-1)) By a theorem of Dirichlet this bound is best possible in that the exponent 1+1/(n-1) can in general not be increased.
Czech Phycological Society is a scientific organization that is dedicated to the development of phycology in the area of the Czech Republic and Central Europe, and the distribution of phycological information. The Society organizes the Annual Meetings and Conferences and publishes the Bulletin Czech Phycology.
In discussing final status issues, Palestinians and Israelis approach the question of the refugees and the right of return from radically different perspectives. The Palestinian narrative maintains that the Zionists forcibly expelled the Arab refugees in 1948. The Palestinians insist on the right of the refugees to return to their homes or, for those who choose not to do so, to accept compensation. And they demand that Israel unilaterally acknowledge its complete moral responsibility for the injustice of the refugees’ expulsion. In contrast, the Israeli narrative rejects the refugees’ right of return. Israel argues that it was the Arabs who caused the Palestinian refugee problem, by rejecting the creation of the State of Israel and declaring war upon it—a war which, like most wars, created refugee problems, including a Jewish one. Israel sees the return of Palestinian refugees as an existential threat, insofar as it would undermine the Jewish character and the viability of the state. The two sides’ traditional solutions make no attempt to reconcile these opposing narratives. Yet such an attempt is vital if the issue is to be engaged. Hence the Joint Working Group on Israeli–Palestinian Relations developed two compromise solutions. They narrow the gap between the positions, but do not fully reconcile them. The compromise solution espoused by the Palestinian members of the Joint Working Group would insist that Israel acknowledge both its responsibility for creating the refugee problem and the individual moral right of Palestinian refugees to return. But it recognizes that, in view of the changed situation of the refugees over 50 years, and taking into account Israel’s constraints, the return of only a limited number would be feasible. Israel would pay both individual and collective compensation. The Palestinians’ case for an Israeli withdrawal to the 1967 borders would be strengthened as a result of their willingness to absorb the refugees in the Palestinian state. Under the compromise solution proposed by the Israeli members of the Joint Working Group, Israel would acknowledge that it shares, with the other parties to the 1948 war, practical, but not moral, responsibility for the suffering of the refugees, and that rectification of their plight is a central goal of the peace process. Israel would accept repatriation of tens of thousands of refugees under its family reunification program. Israel would pay collective compensation to the Palestinian state, paralleled by Arab State compensation for Jewish refugees from 1948. In seeking to further reconcile these two compromise solutions, we note that they reflect a large measure of agreement between Palestinians and Israelis: that Israel had a historic role in the events that created the refugee issue; that a massive exercise of the right of return is unrealizable, and “return”/family reunification will be limited; that a larger number of Palestinians will “return” to the Palestinian state; that some resettlement will take place in host states, primarily Jordan; that Israel will pay some form of compensation; and that closing the file on the refugee issue means the dismantling of the entire international apparatus that has sustained the refugees—camps, UNRWA, etc. But there remain significant gaps between the two sides’ compromise proposals as well. These concern the nature of Israeli acknowledgement of Palestinian suffering and the responsibility for it; the nature and number of “return”/family reunification; the nature and size of compensation, and its linkage to compensation for Jewish refugees from 1948; and the size of “return” to the Palestinian state. In order to negotiate an agreed solution that bridges these remaining gaps, Israelis and Palestinians will have to develop the mutual trust required to further accommodate each other’s narratives. They will also, inevitably, have to factor the refugee/right of return issue into the broader fabric of tradeoffs and compromises that will characterize a comprehensive solution to the conflict. This will involve additional parties—primarily the refugee host countries—as well as related substantive issues, such as borders.
We generalize the concept of block reduction for lattice bases from l2-norm to arbitrary norms. This extends the results of Schnorr. We give algorithms for block reduction and apply the resulting enumeration concept to solve subset sum problems. The deterministic algorithm solves all subset sum problems. For up to 66 weights it needs in average less then two hours on a HP 715/50 under HP-UX 9.05.
We propose a fast variant of the Gaussian algorithm for the reduction of two dimensional lattices for the l1-, l2- and l-infinite- norm. The algorithm runs in at most O(nM(B) logB) bit operations for the l-infinite- norm and in O(n log n M(B) logB) bit operations for the l1 and l2 norm on input vectors a, b 2 ZZn with norm at most 2B where M(B) is a time bound for B-bit integer multiplication. This generalizes Schönhages monotone Algorithm [Sch91] to the centered case and to various norms.
Die Rolle der löslichen Guanylatzyklase in der Signaltransduktion durch Superoxidanionradikale
(2005)
Im kardiovaskulären System ist die lösliche Guanylatzyklase (soluble guanylyl cyclase, sGC) ein Schlüsselenzym der •NO/cGMP-Signaltransduktion. Stickstoffmonoxid (•NO) aktiviert durch direkte Anbindung an das Häm-Eisen die Produktion von zyklischem 3’,5’-Guanosinmonophosphat (cGMP). In glatten Muskelzellen führt ein erhöhter cGMP-Spiegel zur Aktivierung von cGMP-abhängigen Proteinkinasen (cGK) und letztendlich zur Vaso-dilatation. Superoxidanionradikale (•O2-) sind an der Entstehung und Progression von Herz-Kreis¬lauferkrankungen beteiligt. Im vaskulären Gewebe stellt •O2- einen Gegenspieler zum •NO dar. So führt eine vermehrte Produktion von •O2- zu einer eingeschränkten Bioverfügbarkeit von •NO (•O2- + •NO -> ONOO-) (Ohara et al., 1993a). Im Rahmen dieser Arbeit sollte aufgeklärt werden, ob bei einer vaskulären Störung des •NO-Systems die Funktion der sGC durch •O2- auch direkt betroffen ist. Damit könnte dem Superoxid eine weit größere biologische Bedeutung zukommen als bisher angenommen, nämlich die Funktion als Signaltransduktionsmolekül mit der sGC als definiertem Rezeptor und Effektor. Die sGC-Aktivitätsuntersuchungen mit gereinigter sGC zeigten eine konzentrationsab¬hängige Hemmung der basalen und der YC-1- (100 µM) stimulierten (•NO-unabhängigen) sGC-Aktivität durch das •O2--generierende System Xanthinoxidase/Hypoxanthin (XO/HX) (IC50 (basal) = 0,0031 vs. IC50 (YC-1) = 0,022 mU/ml). Die Aufhebung dieser Hemmung durch Superoxiddismutase (SOD, 100 U/ml) deutete auf eine spezifische und schnell-reversible Hemmung der sGC-Aktivität durch •O2- hin. Die in-vitro gezeigte Hemmung der sGC-Aktivität durch •O2- konnte auch in-vivo nach¬gewiesen werden. Die Produktion von •O2- in kultivierten glatten Muskelzellen der Rattenaorta (VSMC) konnte mit Elektronenspinresonanz (ESR) und Lucigenin-abhängiger Chemilumineszenz gezeigt werden. Dabei wurde mit ESR eine ca. 5-fache Steigerung der basalen •O2--Produktion mit dem intrazellulären Redoxcycler Dimethoxynaphtochinon (DMNQ, 10 µM) beobachtet. Auch die Aktivierung membranständiger NADPH-Oxidasen durch die physiologischen Aktivatoren Angiotensin II (Ang II, 100 nM) und platelet-derived growth factor (PDGF, 50 ng/ml) führten zu einer ca. 2-fach gesteigerten •O2--Produktion. Die Hemmung der cGMP-Produktion durch •O2- in kultivierten VSMC konnte in-vivo mittels Enzym-Immuno-Assays (cGMP-EIA) [YC-1 (100µM) = 100 % vs. YC-1 + DMNQ (10 µM) = 21 % vs. YC-1 + PDGF (50 ng/ml) = 76,6 %] nachgewiesen werden. Zusätzlich wurde die Auswirkung von •O2- auf die cGMP-abhängige Signaltransduktion mit Immu¬noblotting (Western-Blot) von phosphoryliertem Vasodilator-stimulierten Phosphoprotein (VASP, vasodilator-stimulated phosphoprotein) gezeigt. Intrazelluläre •O2--Produktion durch Redoxcycling (DMNQ, 10 µM) reduzierte die YC-1-stimulierte Phosphorylierung von VASP um 44,4 %. In weiteren Untersuchungen sollte der molekulare Mechanismus der schnell-reversiblen Hemmung der sGC durch •O2- auf Ebene der sGC aufgeklärt werden. Dabei wies die direkte Detektion von Sulfinyl-Radikalen auf eine Oxidation von Proteinthiolen durch •O2- hin. Der spezifische Austausch von Cysteinen der sGC mittels Punktmutation und die Expression der sGC-Mutanten in COS1-Zellen zeigte, dass Thiol-Gruppen der sGC mit •O2- interagieren. Dabei stellte sich heraus, dass die sGC-Mutanten a1/b1C541S und a1C238S/b1 viel sensitiver auf •O2- (XO 3 mU/ml) reagieren als die Wildtyp-sGC (WTa1/WTb1 = -62 % vs. WTa1C238S/WTb1 = -93,7 % vs. WTa1/b1C541S = -90,2 %). Um zu untersuchen, ob das Häm-Eisen der sGC an der Aktivitätshemmung durch •O2- beteiligt ist, wurde einerseits das Häm entfernt (Tween 20), andererseits das Häm-Fe2+ zum Häm-Fe3+ oxidiert (NS2028). Beide Behandlungen führten zu einer weitgehend YC-1-insen¬sitiven sGC. Die mit Protoporphyrin IX (PIX) aktivierte Häm-freie sGC und die mit HMR3448 aktivierte Häm-oxidierte sGC wurden durch XO/HX wesentlich weniger potent gehemmt als die YC-1-sensitive sGC. Dieser Befund deutet auf eine Beteiligung des Häm-Eisens bei der Aktivitätshemmung der sGC durch •O2- hin. Die in dieser Arbeit gezeigte direkte und schnell-reversible Hemmung der sGC-Aktivität durch •O2- weist der löslichen Guanylatzyklase eine neue biologische Funktion zu. Die sGC könnte als Rezeptor- und Effektorenzym die Signaltransduktion des Signalmoleküls •O2- vermitteln.
Seit Mitte der 60er Jahre diesen Jahrhunderts hat sich in Europa und Nordamerika vor allem unter Jugendlichen und jungen Erwachsenen der Konsum von gesetzlich verbotenen Substanzen ausgebreitet. Ungefähr gleichzeitig setzte sowohl in den Massenmedien als auch in professionellen Kreisen eine heftige Diskussion über dieses Phänomen ein, die bis heute andauert, was nicht nur auf die fraglos nach wie vor aktuelle Problematik von Sucht bzw. Abhängigkeit insbesondere bezüglich Heroin, sondern auch auf die ständigen Veränderungen in den Konsumentenszenen wie auch die vielfältigen Aktivitäten im Bereich der Drogenpolitik zurückzuführen ist. Diese erhielt auch stets Nahrung von der wissenschaftlichen Diskussion, die sich seit Mitte der 80er Jahre vereinzelt auch mit "Nicht-Junkie-" Kreisen beschäftigt, welche den Konsum von Cannabis, Kokain, Designer-Drogen, Halluzinogenen und teilweise auch Heroin in einen "normalen" Alltag integriert haben, wobei bezüglich Deutschland meines Wissens noch keine umfangreicheren qualitativen Studien für diesen Bereich existieren. Dabei ist von Bedeutung, daß nach Schätzungen, teilweise aus quantitativen Erhebungen abgeleitet (großangelegte repräsentative Umfragen liegen nicht vor und könnten allein schon wegen der Illegalität keine seriösen Ergebnisse liefern), bei den meisten, wenn nicht gar bei allen genannten "Szene-Drogen" die überwiegende Mehrheit der Konsumenten (auch der Gewohnheitskonsumenten), zu diesen "integrierten" oder auch "kontrollierten" Gebrauchern zu zählen ist. Diese Vermutung steht im Gegensatz zur lange Jahre von den Vertretern der offiziellen Drogenpolitik und dem Großteil der Medien verbreiteten Meinung, daß jeglicher Konsum der durch das Betäubungsmittelgesetz illegalisierten Substanzen zu Sucht und sozialer Verelendung führe. Weiterhin werden die Verbote für bestimmte Substanzen oft so begründet, daß diese Drogen "kulturfremd" seien und deshalb keine historisch gewachsenen, konsumregulierenden Sitten und Gebräuche bezüglich des Konsums existieren wie z.B. bei Alkohol, Tabak und Kaffee. Daher ist es natürlich interessant zu erfahren, welcher Art die Mechanismen sind, die, der obigen Auffassung widersprechend, ein alltagsintegriertes Konsumverhalten auch bei illegalen Drogen ermöglichen, bzw. inwiefern sie den Kontrollmustern für die legalen Drogen ähnlich sind. Dabei muß selbstverständlich stets hervorgehoben werden, welche Drogen konsumiert werden, da einerseits zwar alle diese Substanzen den illegalen Status mit den entsprechenden alltagspraktischen Konsequenzen gemeinsam haben, aber doch erhebliche Unterschiede existieren in der jeweiligen Wirkungsweise und -intensität (pharmakologisch wie subjektiv), der Gefahr von Überdosierung und körperlichen oder geistigen Schädigungen sowie subkulturellen Zuschreibungen und Einbindungen. Für diese Arbeit habe ich qualitative Interviews mit dreizehn Personen durchgeführt, die allesamt mit mehreren verschiedenen illegalen Drogen Erfahrungen vorweisen können, wobei allerdings zum Teil deutliche Unterschiede bezüglich der Konsumfrequenzen, -mengen und vor allem auch der präferierten Drogen vorliegen. Dabei werde ich, unter Einbeziehung des Konzeptes von drug, set and setting, einerseits Beispiele für die Verschiedenheit von möglichen Konsummustern aufzeigen, gleichzeitig aber versuchen, gerade in bezug auf Funktionen und informelle Kontrollen des Konsums unterschiedlicher Drogen, Gemeinsamkeiten aufzuzeigen.
This study analyses the labour market effects of fixed-term contracts (FTCs) in West Germany by microeconometric methods using individual and establishment level data. In the first part of the study the role of FTCs in firms’ labour demand is analysed. An econometric investigation of the firms’ reasons for using FTCs focussing on the identification of the link between dismissal protection for permanent contract workers and the firms’ use of FTCs is presented. Furthermore, a descriptive analysis of the role of FTCs in worker and job flows at the firm level is provided. The second part of the study evaluates the short-run effects of being employed on an FTC on working conditions and wages using a large cross-sectional dataset of employees. The final part of the study analyses whether taking up an FTC increases the (permanent contract) employment opportunities in the long-run (stepping stone effect) and whether FTCs affect job finding behaviour of unemployed job searchers. Firstly, an econometric unemployment duration analysis distinguishing between both types of contracts as destination states is performed. Secondly, the effects of entering into FTCs from unemployment on future (permanent contract) employment opportunities are evaluated attempting to account for the sequential decision problem of job searchers.
We present an efficient variant of LLL-reduction of lattice bases in the sense of Lenstra, Lenstra, Lov´asz [LLL82]. We organize LLL-reduction in segments of size k. Local LLL-reduction of segments is done using local coordinates of dimension 2k. Strong segment LLL-reduction yields bases of the same quality as LLL-reduction but the reduction is n-times faster for lattices of dimension n. We extend segment LLL-reduction to iterated subsegments. The resulting reduction algorithm runs in O(n3 log n) arithmetic steps for integer lattices of dimension n with basis vectors of length 2O(n), compared to O(n5) steps for LLL-reduction.
In dieser Arbeit wird die erstmals von Stevenson et al. (89, GRL) beschriebene spannungsangetriebene Schmelzsegregation, die Kanalisierungsinstabilität, numerisch mit Hilfe des 2D Finite-Differenzen-Codes FDCON (Schmeling, 00, Kluwer) untersucht. Diese Untersuchung stellt eine Weiterführung der numerischen Experimente von Richardson et al. (96, JGR) und Hall et al. (00, GRL) dar, so dass die Erforschung der Kanalisierungsinstabilität erweitert wird um den Aspekt ihres Verhaltens bezüglich eines äußeren Spannungsfeldes bei verschiedenen initialen Porositätsverteilungen, der Untersuchung der Kanalisierungsinstabilität bei großen Dehnungen und der damit verbundenen Analyse der entstehenden Strukturen, des Einflusses des Auftriebs auf die Ausbildung von Kanalnetzwerken und um die abschließende Prüfung, ob durch ein durch die Kanalisierungsinstabilität ausgebildetes Kanalnetzwerk die Möglichkeit besteht, Schmelze zu einem MOR zu fokussieren. Die Kanalbildung wird derzeit von Holtzman et al. (03, G3) (Hochdruckexperimente an synthetischem Olivin+MORB), Spiegelman et al. (03, G3) (theoretische Untersuchung der Kanalisierungsinstabilität) und Rabinowicz et al. (04, JGR) (numerische Simulation und theoretische Betrachtung der Kanalisierungsinstabilität) intensiv untersucht, die Fokussierung der Schmelze behandeln Sparks et al. (94, Academic Press), Hall et al. (03, G3) sowie Kühn (05, in-press). Viskositätsunterschiede in einer schmelzgefüllten porösen Matrix verursachen bei deren Deformation einen Druckgradienten, welcher die Schmelze in Richtung der maximalen Hauptspannung anreichert und zur Ausbildung von Kanälen, welche eine inhomogene Schmelzverteilung aufweisen, führt. Die Wachstumsrate Alpha dieser Kanäle weist zur Wellenzahl k eine Proportionalität von Alpha ~ ak^2/(1+bk^2) auf. Dieser Zusammenhang hat zur Folge, dass sich ab einer bestimmten Wellenzahl alle Schmelzverteilungen größerer Wellenzahl gleich verstärken. Bei anhaltender Dehnung kann beobachtet werden, dass die ausgebildeten Kanäle an den verarmten Kanalstellen auseinander gerissen werden. Nachfolgend verbinden sich die hierdurch entstandenen Schmelzlinsen unter der Bildung von en-echelon arrays wieder, wodurch sich wiederum ein langer, in etwa um 45° ausgelenkter (linksdrehendes Koordinatensystem, mit 0° gleich der Vertikalen) Kanal bildet. Diese Beobachtungen fanden unter der Bedingung, dass kein Auftrieb zwischen Schmelze und Matrix existiert, statt. Wird dieser Auftrieb hinzugefügt, so ist erkennbar, dass eine Kombination zwischen den die Kanalisierungsinstabilität und den Auftrieb bestimmenden Parametern existiert, bei der sich Solitonen ausbilden. Diese Solitonen folgen bei ihrem schnelleren Aufstieg dem Verlauf der schmelzgefüllten Kanäle und passieren dabei, ohne ihre Form zu verändern, andere kleine Solitonen, die ihren Weg kreuzen. Die durchschnittliche Aufstiegsgeschwindigkeit der Solitonen entspricht einem Vielfachen der Aufstiegsgeschwindigkeit der Schmelze aufgrund von Segregation. Weiterhin deckt sich die Solitonaufstiegsgeschwindigkeit mit der von Schmeling angegebenen. Bisher konnte in die Theorie für trockene (wasserfreie) Medien kein frühzeitiger Abfall der Wachstumsrate bei großen Wellenzahlen implementiert werden. Lediglich unter dem Gesichtspunkt der Diffusion von Wasser zwischen der Matrix und der Schmelze und des erweichenden Effekts von Wasser konnte bei einer spezifischen Wellenzahl eine maximale Wachstumsrate gefunden werden (Hall et al., 2000, GRL). Der Versuch der Anwendung der bisher erzielten Ergebnisse auf die Interaktion eines aufsteigenden Plumes mit einer spreizenden Kruste erbrachte keine direkte Fokussierung der Schmelze zum MOR hin. Die Spannungsverteilung dieser Experimente zeigt, dass der Plumestamm aufgrund eines defokussierenden Kanalnetzwerks im Stamm sowie eines nahezu vertikal verlaufenden Kanalnetzwerks am Rand des Plumestammes von einer Zone erhöhter Schmelzkonzentration ummantelt sein könnte. In dieser Ummantelung steigt die Schmelze dann in vertikal verlaufenden Kanälen auf, wobei sie in den hier vorgestellten Experimenten (Plumekopfausdehnung ~150 km) in einer Entfernung von ~100 km zum MOR auf die Lithosphärenunterseite (Tiefe ~50 km) treffen würde. Aufgrund der Lithosphärenstruktur (Wurzel-t-Gesetz) könnte die Schmelze an der schrägen Lithosphärenunterseite zum MOR hin strömen (Sparks et al., 94, Academic Press sowie Hall et al., 03 G3). Diese Prozesse (Kanalisierungsinstabilität (Stevenson et al., 89, GRL), Entlangströmen der Schmelze an der Lithosphärenunterseite (Sparks et al., 94, Academic Press sowie Hall et al., 03, G3) und der Recyclingprozess der Schmelze) stellen das Erklärungsmodell dieser Arbeit dar, wie eine Fokussierung von Schmelze zum MOR bei einer Interaktion von diesem mit einem Plume aussehen könnte.
Mit Hilfe von Torsionsexperimenten in einem Temperaturbereich von 350° C bis 470° C und einer Anregungsfrequenz von 2*10^{-3} bis 20 Hz ist der komplexe Schermodul G* von Lithiumdisilikatgläsern, welche sich durch einen unterschiedlichen Kristallgehalt auszeichnen (4 Proben, Kristallgehalt: Glas 0=0%, Glas 1=19%, Glas 3=22% und Glas 5=27%), gemessen worden. Hierdurch können weitere rheologische Eigenschaften der Gläser wie der Dämpfungsfaktor \( Q^{-1}, die Viskosität eta und die Aktivierungsenergie E_{alpha} einer Diffusion ermittelt werden. Die Auswertung der Rohdaten des Betrages des komplexen Schermoduls G* und der dazugehörigen Phasenverschiebung phi der Glasproben zeigen eine Zunahme des jeweiligen Wertes bei Erniedrigung der Frequenz und Erhöhung der Temperatur bei steigendem Kristallgehalt. Dies ist dadruch erklärbar, daß ein effektives Schermodul gemessen wird, welches sich aus dem Schermodul der Glasschmelze und dem Schermodul der Kristalle zusammensetzt. Bei Erhöhung der Temperatur erweicht die Glasschmelze langsam, während die Kristalle gegenüber der Glasschmelze hart bleiben. Dies führt zu einem effektiv höheren Schermodul. In den Rohdaten ist bei allen Glasproben die gleiche lineare Zunahme des Dämpfungsfaktors Q^{-1} mit Erniedrigung der Anregungsfrequenz und Erhöhung der Temperatur festzustellen. Somit kann gesagt werden, daß Q^{-1} bei diesen Temperaturen und Anregungsfrequenzen unabhängig vom Kristallgehalt ist. Die gemessenen Werte von Q^{-1} liegen in einem Bereich von 1-0,001. Diese lineare Zunahme bleibt bis hin zu einer Temperatur von 456°C bei Glas 0 und 470°C bei Glas 5 erhalten. Erst dann zeigt sich in einem Anregungsfrequenzbereich von \( 2*10^{-3} - 10^{-2} Hz eine leichte Änderung von Q^{-1} mit steigendem Kristallgehalt. Bedingt durch die Schranken, daß nicht bei höheren Temperaturen als 470°C gemessen werden darf und daß die minimale Anregungsfrequenz der Torsionsmaschine bei 2*10^{-3} Hz liegt, kann diese Änderung in Q^{-1} nicht weiter untersucht werden. Der in der Seismologie interessante Bereich, welcher bei Q^{-1} < 0,01-0,001 liegt, konnte bei diesen Experimenten nicht erreicht werden, da die technischen Voraussetzungen der Torsionsmaschine nur eine genaue Messung von Q^{-1}\approx 0,01 erlauben. Vorliegende Meßdaten, die ein kleineres Q^{-1} als 0,01 aufweisen, streuen zu sehr und sind somit für eine verläßliche Aussage für die Seismologie unbrauchbar. Mit Hilfe des Verfahrens der Masterkurven konnte gezeigt werden, daß sich die rheologischen Eigenschaften von Lithiumdisilikatglas nicht durch einen Maxwell-Körper beschreiben lassen sondern hierzu ein generalisierter Maxwell-Körper nötig ist. Die voneinander unabhängigen Berechnungen der Aktivierungsenergie aus dem Dämpfungsfaktor Q^{-1} und aus den Masterkurven zeigen innerhalb der Fehlerschranken keine Veränderung der gemessenen Werte der Aktivierungsenergie auf. Die Werte sind jedoch fast um die Hälfte kleiner als der in der Literatur angegebene Wert. Es ist ein Verfahren entwickelt worden, welches unter gewissen Voraussetzungen mit Hilfe des Konzeptes der Masterkurven eine Bestimmung einer unbekannten Viskosität eines viskoelastischen Materials bei der Temperatur \( \widetilde{T} \) in Abhängigkeit des Kristallgehaltes ermöglicht. Voraussetzung zur Bestimmung der unbekannten Viskositäten bei unterschiedlichen Kristallgehalten ist es, daß zumindest eine Viskosität bei der Temperatur \( \widetilde{T} \) und ein Kristallgehalt bekannt sind und daß sich die Form des Spektrums des generalisierten Maxwell-Körpers, der das Glas beschreibt, bei einer Variation des Kristallgehaltes nicht verändert. Des weiteren konnte gezeigt werden, daß die Einstein-Roscoe-Formel, welche die effektive Viskosität einer Flüssigkeit in Abhängigkeit der Kristallgeometrie und des Kristallgehaltes beschreibt (15), auch auf die Lithiumdisilikatglasproben, welche einen unterschiedlichen Kristallgehalt jedoch weniger als 30% aufweisen, anwendbar ist.
We introduce algorithms for lattice basis reduction that are improvements of the famous L3-algorithm. If a random L3-reduced lattice basis b1,b2,...,bn is given such that the vector of reduced Gram-Schmidt coefficients ({µi,j} 1<= j< i<= n) is uniformly distributed in [0,1)n(n-1)/2, then the pruned enumeration finds with positive probability a shortest lattice vector. We demonstrate the power of these algorithms by solving random subset sum problems of arbitrary density with 74 and 82 many weights, by breaking the Chor-Rivest cryptoscheme in dimensions 103 and 151 and by breaking Damgard's hash function.
Die zu erwartende vorzeitige Auflösung des Bundestages wird wohl dazu führen, daß der derzeit dem Parlament vorliegende Entwurf eines Gesetzes über die Offenlegung der Vorstandsvergütungen nicht mehr verabschiedet wird. Das bietet die Gelegenheit, die diesem Entwurf und dem in den Bundestag eingebrachten Entwurf der FDP-Fraktion zugrundeliegende Grundkonzeption darzustellen und im Hinblick auf eine spätere Gesetzgebung zu prüfen, ob die Entwürfe ihren Zielen gerecht werden (dazu unter II.). Zu erwägen ist überdies grundsätzlich, ob eine detaillierte gesetzliche Regelung zur Offenlegung der Vorstandsvergütungen anzuraten, oder ob es, wie vielfach vorgeschlagen, beim bisherigen Rechtszustand verbleiben sollte, wonach die gesetzliche Pflicht zu den pauschalen Vergütungsangaben gemäß §§ 285 Nr. 9, 314 Abs. 1 Nr. 6 HGB ergänzt wird durch die Empfehlung des Deutschen Corporate Governance Kodex (Ziff. 4.2.4 DCGK), in börsennotierten Gesellschaften die Vorstandsvergütungen individuell auszuweisen (dazu unten III.).
Im wohl spektakulärsten Wirtschaftsstrafverfahren der deutschen Nachkriegsgeschichte, dem "Mannesmann-Prozeß", ging und geht es neben Barabfindungen von Versorgungsleistungen vor allem um die Zulässigkeit von Anerkennungsprämien für ausscheidende und bereits ausgeschiedene Vorstandsmitglieder. Das Verfahren vor der Wirtschaftsstrafkammer des Landgerichts Düsseldorf war nicht nur in den Medien, sondern auch in der aktien- und strafrechtlichen Literatur mit lebhaftem Interesse verfolgt worden. Nach sechsmonatiger Hauptverhandlung endete es zwar mit Freisprüchen für alle Angeklagten, aber auch mit dem Vorwurf gewichtiger Verstöße gegen das Aktienrecht. Das Urteil der Strafkammer ist gleichfalls bereits mehrfach in der wissenschaftlichen Literatur unter verschiedenen Gesichtspunkten ausführlich gewürdigt worden. Ein Ende der Diskussion ist noch nicht abzusehen, da gegen das Urteil Revision beim Bundesgerichtshof eingelegt worden ist. Die folgenden Bemerkungen befassen sich mit einem aktienrechtlichen Teilaspekt, der Zulässigkeit nachträglicher, im ursprünglichen Anstellungsvertrag eines Vorstandsmitglieds nicht vorgesehener Anerkennungsprämien.
We call a vector x/spl isin/R/sup n/ highly regular if it satisfies =0 for some short, non-zero integer vector m where <...> is the inner product. We present an algorithm which given x/spl isin/R/sup n/ and /spl alpha//spl isin/N finds a highly regular nearby point x' and a short integer relation m for x'. The nearby point x' is 'good' in the sense that no short relation m~ of length less than /spl alpha//2 exists for points x~ within half the x'-distance from x. The integer relation m for x' is for random x up to an average factor 2/sup /spl alpha//2/ a shortest integer relation for x'. Our algorithm uses, for arbitrary real input x, at most O(n/sup 4/(n+log A)) many arithmetical operations on real numbers. If a is rational the algorithm operates on integers having at most O(n/sup 5/+n/sup 3/(log /spl alpha/)/sup 2/+log(/spl par/qx/spl par//sup 2/)) many bits where q is the common denominator for x.
We study the following problem: given x element Rn either find a short integer relation m element Zn, so that =0 holds for the inner product <.,.>, or prove that no short integer relation exists for x. Hastad, Just Lagarias and Schnorr (1989) give a polynomial time algorithm for the problem. We present a stable variation of the HJLS--algorithm that preserves lower bounds on lambda(x) for infinitesimal changes of x. Given x \in {\RR}^n and \alpha \in \NN this algorithm finds a nearby point x' and a short integer relation m for x'. The nearby point x' is 'good' in the sense that no very short relation exists for points \bar{x} within half the x'--distance from x. On the other hand if x'=x then m is, up to a factor 2^{n/2}, a shortest integer relation for \mbox{x.} Our algorithm uses, for arbitrary real input x, at most \mbox{O(n^4(n+\log \alpha))} many arithmetical operations on real numbers. If x is rational the algorithm operates on integers having at most \mbox{O(n^5+n^3 (\log \alpha)^2 + \log (\|q x\|^2))} many bits where q is the common denominator for x.
Black box cryptanalysis applies to hash algorithms consisting of many small boxes, connected by a known graph structure, so that the boxes can be evaluated forward and backwards by given oracles. We study attacks that work for any choice of the black boxes, i.e. we scrutinize the given graph structure. For example we analyze the graph of the fast Fourier transform (FFT). We present optimal black box inversions of FFT-compression functions and black box constructions of collisions. This determines the minimal depth of FFT-compression networks for collision-resistant hashing. We propose the concept of multipermutation, which is a pair of orthogonal latin squares, as a new cryptographic primitive that generalizes the boxes of the FFT. Our examples of multipermutations are based on the operations circular rotation, bitwise xor, addition and multiplication.
Parallel FFT-hashing
(1994)
We propose two families of scalable hash functions for collision resistant hashing that are highly parallel and based on the generalized fast Fourier transform (FFT). FFT hashing is based on multipermutations. This is a basic cryptographic primitive for perfect generation of diffusion and confusion which generalizes the boxes of the classic FFT. The slower FFT hash functions iterate a compression function. For the faster FFT hash functions all rounds are alike with the same number of message words entering each round.
We report on improved practical algorithms for lattice basis reduction. We propose a practical floating point version of theL3-algorithm of Lenstra, Lenstra, Lovász (1982). We present a variant of theL3-algorithm with "deep insertions" and a practical algorithm for block Korkin—Zolotarev reduction, a concept introduced by Schnorr (1987). Empirical tests show that the strongest of these algorithms solves almost all subset sum problems with up to 66 random weights of arbitrary bit length within at most a few hours on a UNISYS 6000/70 or within a couple of minutes on a SPARC1 + computer.
We call a distribution on n bit strings (", e) locally random, if for every choice of e · n positions the induced distribution on e bit strings is in the L1 norm at most " away from the uniform distribution on e bit strings. We establish local randomness in polynomial random number generators (RNG) that are candidate one way functions. Let N be a squarefree integer and let f1, . . . , f be polynomials with coe±- cients in ZZN = ZZ/NZZ. We study the RNG that stretches a random x 2 ZZN into the sequence of least significant bits of f1(x), . . . , f(x). We show that this RNG provides local randomness if for every prime divisor p of N the polynomials f1, . . . , f are linearly independent modulo the subspace of polynomials of degree · 1 in ZZp[x]. We also establish local randomness in polynomial random function generators. This yields candidates for cryptographic hash functions. The concept of local randomness in families of functions extends the concept of universal families of hash functions by Carter and Wegman (1979). The proofs of our results rely on upper bounds for exponential sums.
We propose two improvements to the Fiat Shamir authentication and signature scheme. We reduce the communication of the Fiat Shamir authentication scheme to a single round while preserving the e±ciency of the scheme. This also reduces the length of Fiat Shamir signatures. Using secret keys consisting of small integers we reduce the time for signature generation by a factor 3 to 4. We propose a variation of our scheme using class groups that may be secure even if factoring large integers becomes easy.
We introduce novel security proofs that use combinatorial counting arguments rather than reductions to the discrete logarithm or to the Diffie-Hellman problem. Our security results are sharp and clean with no polynomial reduction times involved. We consider a combination of the random oracle model and the generic model. This corresponds to assuming an ideal hash function H given by an oracle and an ideal group of prime order q, where the binary encoding of the group elements is useless for cryptographic attacks In this model, we first show that Schnorr signatures are secure against the one-more signature forgery : A generic adversary performing t generic steps including l sequential interactions with the signer cannot produce l+1 signatures with a better probability than (t 2)/q. We also characterize the different power of sequential and of parallel attacks. Secondly, we prove signed ElGamal encryption is secure against the adaptive chosen ciphertext attack, in which an attacker can arbitrarily use a decryption oracle except for the challenge ciphertext. Moreover, signed ElGamal encryption is secure against the one-more decryption attack: A generic adversary performing t generic steps including l interactions with the decryption oracle cannot distinguish the plaintexts of l + 1 ciphertexts from random strings with a probability exceeding (t 2)/q.
Assuming a cryptographically strong cyclic group G of prime order q and a random hash function H, we show that ElGamal encryption with an added Schnorr signature is secure against the adaptive chosen ciphertext attack, in which an attacker can freely use a decryption oracle except for the target ciphertext. We also prove security against the novel one-more-decyption attack. Our security proofs are in a new model, corresponding to a combination of two previously introduced models, the Random Oracle model and the Generic model. The security extends to the distributed threshold version of the scheme. Moreover, we propose a very practical scheme for private information retrieval that is based on blind decryption of ElGamal ciphertexts.
Let b1, . . . , bm 2 IRn be an arbitrary basis of lattice L that is a block Korkin Zolotarev basis with block size ¯ and let ¸i(L) denote the successive minima of lattice L. We prove that for i = 1, . . . ,m 4 i + 3 ° 2 i 1 ¯ 1 ¯ · kbik2/¸i(L)2 · ° 2m i ¯ 1 ¯ i + 3 4 where °¯ is the Hermite constant. For ¯ = 3 we establish the optimal upper bound kb1k2/¸1(L)2 · µ3 2¶m 1 2 1 and we present block Korkin Zolotarev lattice bases for which this bound is tight. We improve the Nearest Plane Algorithm of Babai (1986) using block Korkin Zolotarev bases. Given a block Korkin Zolotarev basis b1, . . . , bm with block size ¯ and x 2 L(b1, . . . , bm) a lattice point v can be found in time ¯O(¯) satisfying kx vk2 · m° 2m ¯ 1 ¯ minu2L kx uk2.
Ziel dieser Arbeit war es, ein sicheres und trotzdem effizientes Preprocessing zu finden. Nach den zurückliegenden Untersuchungen können wir annehmen, dies erreicht zu haben. Wir haben gezeigt, daß eine minimale Workload von Attacken von 272 mit nur 16 Multiplikationen pro Runde und 13 gespeicherten Paaren (ri, xi) erreicht werden kann. Mit der in Abschnitt 12.3 erklärten Variation - der Wert rº k geht nicht in die Gleichungen mit ein - erreichen wir sogar eine Sicherheit von 274. In diesem Fall können wir die Anzahl der gespeicherten Paare auf 12 verringern. Auch von der in Abschnit 12.5 besprochenen Variation erwarten wir eine Erhöhung der Sicherheit. Ergebnisse dazu werden bald vorliegen. Folgender Preprocessing Algorithmus erscheint z.B. nach unserem derzeitigen Wissensstand geeignet: Setze k = 12, l0 = 7, l1 = 3, d0 = 4, d1 = 5, h = 4, ¯h = 1. Initiation: lade k Paare (r0 0, x00 ) . . . , (r0 k 1, x0 k 1) mit x0i = ®r0 i mod p. º := 1. º ist die Rundennummer 1. Wähle l1 2 verschiedene Zufallszahlen a(3, º), . . . , a(l1, º) 2 {º + 1 mod k, . . . , º 2 mod k} a(1, º) := º mod k, a(2, º) := º 1 mod k W¨ahle l1 2 verschiedene Zufallszahlen f(3, º), . . . , f(l1, º) 2 {0, . . . , d1 1}, f(1, º) zuf¨allig aus {h, . . . , d1 1} und f(2, º) zuf¨allig aus {¯h, . . . , d1 1} rº k := rº ºmodk + l1 Xi=1 2f(i,º)rº 1 a(i,º) mod q xk = xºº modk · l1 Yi=1 (xº 1 a(i,º))2f(i,º) mod p 2. w¨ahle l0 1 verschiedene Zufallszahlen b(2, º), . . . , b(l0, º) 2 {º + 1 mod k, . . . , º 1 mod k} b(1, º) := º mod k W¨ahle l0 verschiedene Zufallszahlen g(1, º), . . . , g(l0, º) 2 {0, . . . , d0 1} rº ºmodk := l0 Xi=1 2g(i,º)rº 1 b(i,º) mod q xºº modk = l0 Yi=1 (xº 1 b(i,º))2g(i,º) mod p 3. verwende (rº k, xº k) f¨ur die º te Signatur (eº, yº) gem¨aß yº = rº k + seº mod q 4. º := º + 1 GOTO 1. f¨ur die n¨achste Signatur Die Zufallszahlen a(3, º), . . . , a(l, º), b(2, º), . . . , b(l, º), f(1, º), . . . , f(l, º) und g(1, º), . . . , g(l, º) werden unabhängig gewählt. Dies ist selbstverständlich nur ein Beispiel. Unsere Untersuchungen sind noch nicht abgeschlossen. Wir glauben aber nicht, daß feste Werte a(i, º) und b(i, º) ein effizientes Preprocessing definieren. Wir haben einige Variationen mit solchen weniger randomisierten Gleichungen studiert und immer effiziente Attacken gefunden.
Die vorliegende Studie hat die Häufigkeit familiärer Tumorhäufungen in Familien von Patienten mit kolorektalen Karzinomen und klinische Kriterien untersucht, die mit dem vermehrten Auftreten von Tumoren in diesen Familien assoziiert sind. Die Bedeutung von klinischen Diagnosekriterien zur Erfassung familiärer Häufigkeiten von Tumoren wurde analysiert. Dabei zeigte sich, dass die klassischen Diagnosekriterien im Alltag keine Bedeutung haben (die Amsterdam-Kriterien werden kaum erfüllt). Dass sich andererseits familiäre Tumorhäufungen mit einfachen klinischen Kriterien in hohem Ausmaß erfassen lassen, dazu zählt als wichtiges Kriterium: • Ein weiterer betroffener Patient mit Tumorleiden in der Familien im Diagnosealter <= 55 Jahre, • die Vertikale Transmission HNPCC-typischer Tumore Bei Anwendung dieser Kriterien können nahezu 2/3 der Familiären Cluster erkannt werden. Die Kombination von Kriterien, wie etwa „Diagnosealter des Patienten <= 50 Jahre mit Angehörigen mit Karzinom im Diagnosealter <= 50 Jahre“, sowie die Kombination „Diagnosealter des Patienten <= 50 Jahre und die Vertikale Transmission HNPCC-typischer Karzinome“ verbessert die Erkennung von Familien mit Tumorhäufungen nicht. Das Tumorspektrum in den so definierten Familien entspricht dem des HNPCC. Das legt den Schluss nahe, dass es sich um eine abortive Form des HNPCC oder aber um ein molekulargenetisch differentes, aber in der Manifestation mit dem HNPCC überlappendes Syndrom handeln könnte. Ob bei den so definierten Familien eine präventive Diagnostik erfolgreich ist, bedarf weiterer Studien. Solange kein einfaches molekulargenetisches Verfahren leicht und kostengünstig zur Verfügung steht, sind diese Anamnesekriterien für den klinischen Alltag und für die betroffenen Familien von außerordentlicher Bedeutung.
Es steht außer Zweifel, daß digitale Signaturen schon bald zu unserem Alltag gehören wer- den. Spätestens mit dem Inkrafttreten des Gesetzes zur digitalen Signatur (siehe [BMB]) sind sie zu einem wichtigen Instrument in der Telekommunikation geworden. Dabei kommt der Verwendung von Chipkarten eine wichtige Bedeutung zu: In ihnen lassen sich die sensiblen Daten (z.B. der geheime Schlüssel) auslesesicher aufbewahren; gleichzeitig können sie bequem mitgeführt werden. Aus diesen Gründen erlebt die Verwendung von Chipkarten zur Erzeugung von digitalen Signaturen zur Zeit einen enormen Aufschwung. Problematisch ist jedoch der oft unverhältnismäßig große Berechnungsaufwand für die Erzeugung von digitalen Signaturen. Ziel dieser Arbeit ist es, Methoden zu entwickeln und/oder zu untersuchen, welche die Berechnung digitaler Unterschriften wesentlich beschleunigen. Dabei spiegelt sich die Zweiteilung der in der Praxis hauptsächlich verwendeten Typen von Signaturverfahren in der Struktur der Arbeit wider. Der erste Teil dieser Arbeit untersucht Verfahren zur effizienten Berechnung von RSA-Unterschriften. Dabei entstanden die Untersuchungen in den Abschnitten 3.2.3 und 3.2.4 in Zusammenarbeit mit R. Werchner und der Inhalt der Abschnitte 3.1 - 3.2.4 ist bereits in [MW98] veröffentlicht. Im zweiten Teil entwickeln wir Verfahren zur effizienteren Generierung von Unterschriften, die auf dem diskreten Logarithmus basieren, und untersuchen deren Sicherheit. Dabei entstanden die Untersuchungen in den Abschnitten 4.2 (bis auf 4.2.2) und 4.3.1 in Zusammenarbeit mit C. P. Schnorr und sind teilweise in [MS98] zusammengefaßt. Obwohl diese Arbeit eine mathematische Abhandlung darstellt, versuchen wir, die praktische Anwendung nicht aus den Augen zu verlieren. So orientieren sich die betrachteten Verfahren stets an den durch die verfügbare Technologie gegebenen Rahmenbedingungen. Darüber hinaus richten wir unser Augenmerk weniger auf das asymptotische Verhalten der betrachteten Verfahren, als vielmehr auf konkrete, für die Anwendung relevante Beispiele.
Ein gentherapeutischer Ansatz für die Behandlung der HIV-Infektion ist die "intrazelluläre Immunisierung" von CD4+-Zellen die den Hauptangriffspunkt des HI-Virus darstellen. Potentiell therapeutische Gene zur Hemmung der HIV-Replikation sind in großer Zahl und für praktisch jeden schritt des Replikationszyklus des Virus publiziert. Ein Problem war allerdings bisher das Fehlen eines einheitlichen und reproduzierbaren Vergleichssystems zur Identifizierung erfolgversprechender Gene für Studien im Tiermodell und in der Klinik. In dieser Arbeit wurde ein solches auf die Gentherapie abgestimmtes Zellkultursystem entwickelt, das auf stabilem Transfer von HIV-inhibitorischen Genen durch retrovirale Transduktion von T-Zellen und Belastungsversuchen mit replikationsfähigen Viren beruht. Dazu wurden auf Basis der humanen T-Zellinie PM1 Zellinien etabliert, die das Markergen egfp sowie ein therapeutisches Gen stabil exprimieren. Für den Gentransfer wurden [MLV(GaLV)]-Vektoren verwendet, die sich für die Transduktion von hämatopoetischen Zellen besonders eignen. Mit Hilfe der etablierten HIV-inhibitorischen Gene RevM10 und STHM (membrangebundenes T20) wurden Methoden zur Generierung dieser stabilen Zellinien optimiert. Um eine höchstmögliche Vergleichbarkeit zu erreichen, müssen die Voraussetzungen für eine HIV-Replikation in allen Zellinien in gleicher Weise gegeben sein. Deshalb wurden Zellinien bei mit praktisch gleicher Zellteilungsrate und HIV-Rezeptorexpression etabliert. Die untrschiedliche Hemmwirkung der Kontrollgene konnte so in Belastungsexperimenten mit drei verschiedenen, repräsentativen HIV-1-Laborstämmen reproduzierbar gezeigt werden. Das erarbeitete Zellkultursystem wurde dann zur Evaluierung verschiedener Gene eingesetzt. Zunächst wurden zwei neue Ansätze für die HIV-Gentherapie getestet. Die hohe Wirksamkeit von APOBEC3Gagm gegen HIV-1, die zuvor in einem "single-round"-Infektionssystem gezeigt worden war, konnte bestätigt werden. Der Versuch, das als natürlicher HIV-Inhibitor in humanem Hämofiltrat gefundene Peptild VIRIP auf der Zelloberfläche zu exprimieren, bewirkte hingegen keine HIV-Hemmung. Zusätzlich wurden mehrere potentiell therapeutische Gene getestet, die von Kooperationspartnern im Rahmen eines HIV-Netzwerkes entwickelt worden waren. Für die humanisierte transdominant-negative Gag-Mutante TDsg Delta 2 konnte eine HIV-Hemmwirkung nachgewiesen werden, während weder die Wildtyp-Mutante TDwt Delta 2 noch das minimale GAG-Fragment L2GAL2-V3 eine signifikante Wirkung zeigten. Für die beiden HIV-1 p6-Konstrukte L4 und L6 war eine HIV-Hemmung ebensowenig wie für die gp41 c-tail-Konstrukte 9/1 und 9/2 feststellbar. In weiteren Versuchen konnte gezeigt werden, daß sich die Hemmwirkung der unterschiedlichen Gene gegen HIV-1-Primärisolate im wesentlichen der gegen die Laborstämme entspricht. Nach Infektion der Zellinien mit HIV-2 wurde wie erwartet die Virusreplikation nur durch STHM und TDsg Delta 2 gehemmt. Schließlich wurde getestet, ob sich die Hemmeffekte auch in primären humanen Lymphozyten nachvollziehen lassen. Obwohl aufgrund der in diesen Zellen niedrigen erreichbaren Transduktionseffizienzen und einer starken Donorabhängigkeit keine Standardisierung möglich war, konnte gezeigt werden, daß es prinzipiell möglich ist, Hemmeffekte sichtbar zu machen.
Die Thrombozytenaktivierung, die PLA-Bildung via CD62, die Leukozytenaktivierung und die entzündliche Aktivität am Endothel nehmen in der heutigen pathophysiologischen Vorstellung der peripheren Atherosklerose und ihrer Entstehung eine zentrale Rolle ein. In dieser Querschnittstudie wurden die PLA-Bildung und Marker der Plättchen-, Leukozyten- und Endothelaktivierung (PAC-1, CD62, Mac-1 und sICAM-1) bei 44 Patienten mit peripherer arterieller Verschlusskrankheit unter Therapie mit ASS (n=17), Clopidogrel (n=12), ihrer Kombination (n=8) oder ohne Therapie (n=7) und bei einer Kontrollgruppe, bestehend aus gesunden Probanden (n=9), untersucht. Die Messungen wurden mittels Flowzytometrie im Vollblut ohne (baseline) und nach in vitro Stimulation mit ADP oder TRAP und eines Immunoassays durchgeführt. Die CD62-Expression zeigte sich bei unbehandelten und mit ASS behandelten Patienten ohne und nach Stimulation signifikant höher als bei mit Clopidogrel oder mit einer Kombination aus ASS und Clopidogrel behandelten Patienten. Gleiches galt für die PLA-Bildung (Monozyten-Leukozyten-Aggregate). Die Mac-1-Expression zeigte sich in den mit TRAP oder ADP stimulierten Proben unter einer Kombina-tionstherapie aus ASS und Clopidogrel gegenüber Patienten ohne oder mit ASS Monotherapie signifikant reduziert. Die sICAM-1-Plasmakonzentrationen waren bei gesunden Probanden und bei antiaggregatorische behandelten Patienten signifikant niedriger als bei unbehandelten Patienten. Die Werte unterschieden sich dabei zwischen den verschiedenen antiaggregatorischen Therapien nur unwesentlich. Dies ist die erste Studie, die zeigt, dass die PLA-Bildung bei Patienten mit pAVK vermehrt ist und unter einer Therapie mit Clopidogrel gemindert wird.
In der vorliegenden Arbeit wird das Wachstums- und Zelltodverhalten von Tumoren des zentralen Nervensystems untersucht. Des Weiteren wird die Expression verschiedener Apoptose-assoziierter Faktoren in den Präparaten analysiert und mit Normalkontrollen verglichen. Es zeigt sich, dass Apoptose von Tumorzellen aller untersuchter Hirntumore und Malignitätsgrade vollzogen werden kann. Die Rate apoptotischer Zellen ist jedoch sehr variabel und korreliert nicht mit dem Malignitätsgrad der Tumore. Auch besteht keine Korrelation zwischen der Apoptose- und der Proliferationsrate. Die Ergebnisse legen insgesamt nahe, dass die Apoptoserate nicht als Marker für die Malignität von Tumoren des zentralen Nervensystems verwendet werden kann. Auch unter Einbeziehung Apoptose-assoziierter Faktoren ist eine Gradifikation der Tumore hinsichtlich der Malignität nicht möglich. So unterscheiden sich z.B. atypische (WHO-II) und anaplastische (WHO-III) Meningiome quantitativ und qualitativ nicht signifikant voneinander. Es können ebenfalls keine signifikanten Unterschiede hinsichtlich der Expression der untersuchten Apoptose-assoziierten Faktoren, sowie der Apoptose- und Proliferationsraten zwischen Medulloblastomen und primitiven neuroektodermalen Tumoren (PNETs) festgestellt werden. Dies spricht dafür, dass sich diese Tumore lediglich bezüglich ihrer Lokalisation im zentralen Nervensystem unterscheiden. Die Analyse der Apoptose-assoziierten Faktoren zeigt, dass alle untersuchten Faktoren grundsätzlich in allen untersuchten Tumoren vorkommen, während die Normalkontrollen diese Faktoren nicht exprimieren. Der Vollzug der Apoptose findet jedoch nicht in diesem Maße statt, da die Apoptoserate der Tumore (markiert durch TUNEL) stets wesentlich geringer ist als die Expressionsraten der Apoptose-assoziierten Faktoren. Es ist davon auszugehen, dass entdifferenzierte Tumorzellen entweder nur begrenzt in der Lage sind, ihr apoptotisches „Selbstzerstörungsprogramm“ in Gang zu setzen und zu Ende zu führen, oder, dass apoptosehemmende Mechanismen greifen. Um so interessanter wäre es, durch therapeutische Intervention Apoptose zu initiieren. Die Analyse der einzelnen Apoptose-assoziierten Faktoren liefert Hinweise darauf, an welchen Stellen des apoptotischen Systems eine solche Intervention ansetzen könnte: Die hochmalignen WHO-IV-Tumore zeigen eine signifikante Hochregulation der Effektor-Caspasen-3 und -6. Die physiologischen Aktivierungsmechanismen dieser Caspasen z.B. durch Caspase-2 und TNFalpha scheinen in diesen hochmalignen Tumoren jedoch weniger eine Rolle zu spielen, da diese Faktoren hier nur in geringem Ausmaß exprimiert werden. Jedoch könnten modifizierte, per se aktive Caspase-3- und -6-Moleküle eine interessante therapeutische Option zur Behandlung maligner Tumore des zentralen Nervensystems darstellen. Zu beachten ist aber unter anderem, dass z.B. Glioblastome auch geringe Expressionsraten apoptotischer Faktoren im peritumoralen, mikroskopisch nicht infiltrierten Normalgewebe zeigen. Dies könnte für eine peritumorale Dysfunktion des Hirngewebes sprechen. Welche Rolle dies bei der Behandlung mit Apoptose-stimulierenden Agenzien spielt und wie spezifisch die Anwendung solcher Stimulanzien für Tumorgewebe wären, muss Gegenstand weiterer Studien sein. Die untersuchten WHO-II- und –III-Tumore zeigen eine Hochregulation vor allem von Faktoren des extrinsischen Apoptoseweges (z.B. TNFalpha). Die Expressionsraten von TNFalpha korrelieren signifikant mit dem WHO-Grad der untersuchten Tumore. Interessante therapeutische Optionen könnten hier zum einen die Aktivierung des extrinsischen Apoptoseweges über TNFalpha sein, zum anderen könnte man versuchen, eine direkte Aktivierung über modifizierte Effektor-Caspasen herbeizuführen. Insgesamt existieren verschiedene mögliche Angriffsorte innerhalb des apoptotischen Netzwerkes der Zelle für eine thepeutische Intervention bei Tumoren des zentralen Nervensystems. Die Komplexität des Kaskade-artigen Systems legt nahe, dass eine therapeutische Intervention möglichst an dessen Ende erfolgen sollte, um möglichst viele Stör- und Hemmfaktoren zu umgehen.
Die meisten nanopartikulären Ansätze im Bereich der Arzneiformenentwicklung befinden sich am Anfang der klinischen Evaluation, sodass das wirkliche Potenzial nanotechnologischer Produkte sich erst in den kommenden Jahren abzeichnen wird. Die Zusammenführung von „Drug-Targeting“ und „sustained release“ mit nanotechnologischer Entwicklung könnte in Zukunft zu einem Fortschritt in der Medizin beitragen. Auf dem Gebiet der Antisense-Oligonukleotid (ASO)-Therapie stellt der ASOTransfer in Zielzellen eine entscheidende Hürde dar. ASO benötigt, um im Körper an den Wirkort zu gelangen, einen zuverlässigen Träger, der vor dem Abbau in physiologischen Milieu schützt, den Transport über extra- und intrazelluläre Barrieren im Körper gewährleistet und die ASO zielgerichtet an den Wirkort bringt. Der Einbau von ASO in kolloidale Trägersysteme wie Nanopartikel vermittelt eine effiziente Aufnahme in Zellen bei gleichzeitigem Schutz vor abbauenden Enzymen im Körper. Des Weiteren kann eine gezielte Aufnahme in Zielzellen erreicht werden, die normalerweise nicht auftritt. Bisherige Trägersysteme bestanden meist aus Nanopartikeln von synthetischen Materialien, die entweder die ASO an der Oberfläche adsorbiert oder in der Partikelmatrix inkorporiert hatten. Als Trägermaterialien wurden oft Polyalkylcyanoacrylate verwendet. Sie sind aufgrund ihrer negativen Ladung und Hydrophobizität nicht geeignet ohne Zugabe von Hilfsstoffen, welche in höheren Konzentrationen toxisch wirken, anionische hydrophile Substanzen wie ASO zu adsorbieren. Außerdem besteht bei Nanopartikeln mit adsorbierten ASO die Gefahr, dass es bei einer intravenösen Gabe zu einer Desorption der ASO kommt und somit ASO die Zielzellen nicht in verpackter Form erreicht. Im Rahmen dieser Arbeit wurden NP auf Basis von humanem Serumalbumin (HSA) als Trägersystem für ASO entwickelt. Durch Oberflächenmodifikation dieser Trägersysteme wurde eine Kopplung von anti-HER2 Antikörper ermöglicht und ein AK-vermitteltes Drug-Targeting erreicht. HSA als natürliches Makromolekül zeichnet sich durch geringe Toxizität und gute Biodegradierbarkeit aus. Ein weiterer Vorteil besteht darin, dass ein Wirkstoff mit vorhandenen Bindungsstellen im HSA-Molekül Wechselwirkungen eingehen kann, was eine erfolgreiche Einbindung gewährleistet. Zusätzlich eignen sich aus HSA hergestellte NP aufgrund funktioneller Gruppen an der Partikeloberfläche für die Kopplung von Antikörpern und ermöglichen somit eine zielgerichtete Arzneistofftherapie. Die entwickelten Trägersysteme wurden hinsichtlich kolloidaler Parameter wie Teilchengröße, Oberflächenladung, ASOBeladungseffizienz, Stabilität in physiologischen Medium und ihrem Vermögen, einen ASO-Effekt zu erzielen, in Zellkultur evaluiert. 4.1 Optimierung der Beladung von NP mit ASO Zunächst wurden HSA-NP hergestellt, bei denen die Beladung durch Inkorporieren des ASO in die Partikelmatrix erfolgte. Die Evaluierung des Desolvatationsprozesses ergab eine Abhängigkeit der ASO-Beladung vom zugesetzten Desolvatationsmittel Ethanol. Eine Mindestmenge eines 1,8-fachen Überschusses an Ethanol ist für die vollständige Desolvatation des HSA und damit für die Einbindung des daran adsorbierten ASO erforderlich. Ebenso beeinflusste die Quervernetzung der Partikel die ASO-Beladungseffizienz. Je mehr Glutaraldehyd zugesetzt wurde, desto stabiler waren die NP. Nimmt die Menge des Glutaraldehyds von 40% auf 200% zu, löste sich um so weniger ASO während der Waschschritte aus der Partikelmatrix heraus. Jedoch hat das Ausmaß der Quervernetzung einen entscheidenden Einfluss auf die Biodegradierbarkeit des Partikelsystems. Zu stark quervernetzte NP (Quervernetzung von 200%) können von intrazellulären Enzymen nicht mehr abgebaut werden, infolge dessen gelangt das eingebundene ASO nicht zu seinem Wirkort ins Zytoplasma. Im Folgenden wurde versucht über die Einführung einer permanenten kationischen Ladung (EDC/Cholamin-Reaktion) im HSA-Molekül ein Trägerpolymer mit höherer Beladungskapazität im Vergleich zu nativem HSA zu etablieren. Ein geringer Anteil von kationisiertem HSA (cHSA) in der HSA-Partikelmatrix reichte aus, um die ASOBeladungseffizienz um ein 2,5-faches signifikant zu steigern. Das Ziel der Oberflächenmodifikation der HSA-NP war eine Positivierung des Zetapotentials, um die Bindung negativ geladener Wirkstoffe wie ASO über elektrostatische Wechselwirkungen zu ermöglichen. Die Umsetzung der HSA-NP mit EDC und Cholamin führte zu einer deutlichen Verschiebung des Zetapotentials von ca. –20,0 mV in den positiven Bereich (+38,6 mV). Durch die Inkubation mit ASO konnten so große Menge an ASO effizient an die Partikeloberfläche (NP+) gebunden werden. Ein Vergleich dieser Ergebnisse zeigte, dass die Beladung mit ASO in der Reihenfolge von Albumin-NP (HSA-NP) mit einer Beladungseffizienz von 7,6 µg ASO / mg NP zu Nanopartikeln, die in der Partikelmatrix inkorporierten Anteil an kationisiertem Albumin enthielten (cHSA-NP) mit 18,2 µg ASO / mg NP, zu Oberflächen-kationisierten Nanopartikeln (NP+) mit 100 µg ASO / mg NP signifikant zunahm. 4.2 Mit ASO-beladene NP in der Zellkultur HSA-NP wurden von allen verwendeten Brustkrebszell-Linien gut vertragen. Nach Zellaufnahme der HSA-NP wurden bei niedriger Quervernetzung (40%) die Partikel gut intrazellulär abgebaut und das ASO in das Zytoplasma freigesetzt. Es konnte im CLSM gezeigt werden, dass die ASO-Freisetzung innerhalb von 24 h zunahm. Alle Versuche mittels den entwickelten ASO-beladenen Trägersystemen einen Antisense Effekt nachzuweisen schlugen fehl. Da die Beladung der HSA-NP nicht weiter erhöht werden konnte, richtete sich ein neuer Ansatz auf eine verbesserte Aufnahme der NP über einen Rezeptor-vermittelten Mechanismus. 4.3 Antikörper-vermittelte Anreicherung von NP in Zielzellen Die Anwendung von monoklonalen Antikörpern mit einer Spezifität gegenüber Tumorzellen ist eine relativ neue und spannende Modalität in der Krebstherapie. Eine der vielversprechenden Zielstrukturen für eine solche Immunotherapie stellt der HER2-Membranrezeptor dar, dessen Überexpression mit einer schlechten Prognose assoziiert ist. HER2 ist ein Produkt des Proto-Onkogens erbB2, das für einen 185 kDa Transmembrantyrosinkinase Wachstumsfaktorrezeptor kodiert. Dieser Rezeptor ist in normalem Gewebe bei Erwachsenen nur geringfügig exprimiert [Press et al., 1990], aber ist bei ungefähr 30% der Patienten mit humanem Magenkarzinom, Lungen- und Brustkrebs überexprimiert. Gegenwärtig dient HER2 als Tumormarker für die zielgerichtete Behandlung mit dem humanisierten anti-HER2 AK Trastuzumab (Herceptin®) von Patientinnen bei metastasierendem Brustkrebs. Jedoch können bessere Ergebnisse erreicht werden, wenn Trastuzumab in Kombination mit anderen Zytostatika verabreicht wird. Antikörper haben bei alleiniger Gabe eine ausreichende Antitumoraktivität, aber sie können auch konjugiert mit Zytostatika sowie Toxinen und Radionukliden, genutzt werden, um diese zu den Tumoren bringen. Im Prinzip kann die Trägereigenschaft von Antikörpern gesteigert werden, wenn ein Antikörper an ein Arzneistoffreservoir, wie Nanopartikel oder Liposomen geknüpft ist. Der Vorteil dieses innovativen Ansatzes für eine zellspezifische Anreicherung im Vergleich zu herkömmlichen Biokonjugaten ist, dass eine höhere Arzneistoffträgerkapazität mit einer verbesserten Spezifität für eine zielgerichtete Pharmakotherapie kombiniert werden kann. Wegen seiner erhöhten Expression in Tumorzellen, seiner extrazellulären Verfügbarkeit und seiner Fähigkeit nach Antikörperbindung internalisiert zu werden, stellt HER2 eine geeignete Zielstruktur für die Tumortherapie mit zellspezifischen Nanopartikeln dar. Das Ziel dieser Arbeit war es, die Funktion Antikörpermodifizierter Protein-basierter Nanopartikel zu untersuchen und eine spezifische Aufnahme in HER2-überexprimierende Zell-Linien zu verbessern. Ein spezifisches Targeting wurde in verschiedenen Krebszell-Linien mit unterschiedlichen HER2- Expressionsleveln durch FACS-Analyse bewiesen. Die Versuche beinhalteten Inhibitionsexperimente durch Vorinkubation mit Trastuzumab, um die Selektivität der Bindungsstellen auf der Zelloberfläche zu unterstreichen. Die zelluläre Aufnahme dieser Nanopartikel, ebenso wie die zelluläre Verteilung, konnte im CLSM beobachtet werden. Diese ermutigenden Ergebnisse heben den potenziellen Wert Antikörper-modifizierter Nanopartikel für eine spezifische Anreicherung in Tumorzellen hervor. Anti-HER2-NP binden effizient an HER2-überexprimierende Zellen (85%) und werden anschließend internalisiert. Im Anschluss wurde die Beladung von ASO in HSA-NP mit den erhaltenen Erkenntnissen Antikörpermodifizierter HSA-NP kombiniert. Zunächst wurde die Freisetzung von farbmarkierten ASO aus AK-modifizierten HSA-NP in SK-Br-3- und MCF7-Zellen untersucht. Durch die spezifische Aufnahme der AK-modifizierten HSA-NP gelangt bereits innerhalb der ersten Stunde deutlich mehr ASO in die Zelle. Die Zellaufnahme und Freisetzung in das Zytosol der Zelle ist abhängig vom HER2- Protein auf der Zelloberfläche und nimmt über 24 h stark zu. SK-Br-3-Zellen reichern das farbmarkierte ASO stärker als die MCF7-Zellen an. Wirksame ASOKonzentrationen können in SK-Br-3-Zellen mit einer sehr geringen Partikelkonzentration von nur 50 µg anti-HER2-NP/ml erzielt werden, während in MCF7- Zellen eine weit aus höhere Partikelkonzentration notwendig ist. Da die HER2- überexprimierenden Zellen, die für einen Antisense-Testung zur Verfügung standen, sich nicht für den Nachweis eines Antisense-Effektes eigneten, konnte die entwickelte Kombination von ASO-beladenen AK-modifizierten Albumin- Nanopartikeln nicht weiter getestet werden. In Kombination mit einem in die Nanopartikel inkorporierten Arzneistoff wird eine wirksame intrazelluläre Arzneistoffabgabe erwartet. Die Anwendung Antikörpermodifizierter Nanopartikel kann Arzneistoff-Trägereigenschaften mit einer zielgerichteten Tumortherapie kombinieren. Diese neue Generation von immunospezifischen Nanopartikeln sollte auf jeden Fall noch weiter im Einzelnen untersucht werden, um die Wirksamkeit dieser Arzneistoffträgersysteme unter in vitro und in vivo Bedingungen zu belegen.
Genetisch prädisponierende Faktoren und äußere Einflussfaktoren haben eine wesentliche ätiopathogenetische Bedeutung bei der multiplen Sklerose. Zahlreiche Fall-Kontroll-Studien und eine zunehmende Anzahl von Kohorten-Studien wurden zur Aufdeckung äußerer Risikofaktoren durchgeführt. Dennoch bleibt bis heute die Ätiologie der multiplen Sklerose weiterhin rätselhaft. In der vorliegenden Fall-Kontroll-Studie wurden Daten von 538 MS-Patienten, die im Laufe einer Langzeitstudie zur multiplen Sklerose in Südhessen von 1979 bis 1998 mittels eines ausführlichen Interviews befragt wurden, mit den Daten von 102 ebenfalls durch Interview befragten stationär chirurgischen Kontrollpersonen verglichen. Die Studie bezog sich hauptsächlich auf Einflüsse in der Kindheit und Jugend. Im Jahre 1998 wurden 102 Patienten (68 Frauen, 34 Männer), die in der Mehrzahl zur Durchführung einer Appendektomie, Thyreoidektomie, Herniotomie oder Cholezystektomiein der Chirurgischen Klinik des Evangelischen Krankenhauses Elisabethenstift in Darmstadt stationär behandelt wurden, während ihres stationären Aufenthaltes befragt. Ausgeschlossen waren Patienten mit malignen Erkrankungen, Autoimmunerkrankungen und multimorbide, schwer kranke Patienten. Alle Kontrollpersonen wurden ausschließlich durch den Autor befragt. Von 1979 bis 1998 wurden insgesamt 538 multiple Sklerose-Patienten des Areals Südhessen, die zwischen 1938 und 1978 geboren wurden, ebenfalls mittels Fragebogen erfasst (364 Frauen, 174 Männer). Die meisten Befragungen erfolgten durch ein und denselben Untersucher (K. Lauer). Erfragt wurden zahlreiche Expositionen im Sinne der Hypothesengenerierung aus folgenden Bereichen: Kindliche Infektionen, ausgewählte internistische Erkrankungen, Traumata, Operationen und Anästhesien, Medikamente, Zahnstatus, Ernährung, Zigarettenkonsum, Wohn- und Sanitärverhältnisse, multiple Sklerose in Familie und Umgebung sowie Sozialstatus. In der bivariaten Auswertung wurden für jede Variable die Odds Ratio (OR) und das 95%- Konfidenzintervall (KI) errechnet und der p-Wert wurde mit dem Chi2-Test bzw. mit dem zweiseitigen Fisher-Test ermittelt. Hierzu wurde das Statistikprogramm Epi Info 6.0 verwendet. Für die multivariate Auswertung wurde eine schrittweise logistische Regressionsanalyse mit jeweiliger Elimination einer Variablen bis zum Signifikanzniveau (p X 0,05) vorgenommen. In die multivariate Analyse gingen alle signifikanten Variablen der bivariaten Auswertung (p X 0,05) sowie Geschlecht und Geburtsjahr ein. Die Variable „Tetanusimpfung“ wurde nicht mit einbezogen. Primäre Nachteile der vorliegenden Fall-Kontroll-Studie sind die unterschiedlichen Befragungszeiträume und Interviewer bei den Fällen und Kontrollen, weiterhin die Tatsache, dass der Fragebogen nur eine Reliabilität für eine eingeschränkte Zahl von Variablen bei den MS-Fällen und eine unbekannte Validität aufweist. Alter und Geschlecht wurden durch die Einbeziehung in die multivariate Auswertung kontrolliert. Bei der bivariaten Auswertung der Daten aller MS-Patienten und Kontrollpersonen waren die Variablen „Masern“, „Masern R 6 Jahre“, „Keuchhusten“, „oft Angina“, „Aether-/Chloroformnarkose“, „Karies“, „Konsum tierischer Fette“, „Hausschlachtung“, „Konsum pflanzlicher Fette“, „MS in der Familie“, „Kohleheizung“, „Kontakt zu Mäusen“ sowie „Kontakt zu Ratten“ mit einem signifikant erhöhten MS-Risiko assoziiert. Für das Vorhandensein von MS im Bekanntenkreis zeigte sich eine grenzwertig signifikante positive Assoziation. Die Variablen „Windpocken“, „Nasennebenhöhlenentzündung“ (Sinusitis), „Darmwürmer“ (Helminthosis), „>5 Zahnfüllungen“, „Polio-Impfung“, „Tetanus-Impfung“, „Diphtherie-Impfung“, „Konsum vieler Eier“ und „Abwasserentsorgung über Klärwerk“ waren signifikant invers mit MS assoziiert; für „Scharlach“, „Hypothyreose“ und „Abwasserentsorgung über ausgebaute Kanalisation“ ergab sich eine grenzwertig signifikante negative Assoziation. Außerdem erfolgten getrennte bivariate Auswertungen für die Subgruppen „weibliche MS-Patienten“, „männliche MS-Patienten“, „MS-Patienten mit schubförmigem Krankheitsbeginn“ und „MS-Patienten mit primär chronisch progredienter Verlaufsform“ mit den jeweiligen Kontrollpersonen. In den multivariaten Auswertungen ergaben sich für die Variablen „pflanzliche Fette“, „tierische Fette“, „Masern“ (bei Frauen), „Mäuse“, „MS in Familie“ (bei MS-Patienten mit schubförmigem Krankheitsbeginn) und „Kohleheizung“ positive Korrelationen zur multiplen Sklerose. Negativ korrelierend waren „Diphtherie-Impfung“, „Sinusitis“ und „viele Eier“ (bei Frauen). Der vermehrte Konsum tierischer Fette bei den MS-Kranken steht in Einklang mit zahlreichen Untersuchungen, während die gefundene Häufung von Pflanzenfett vorerst nicht erklärt ist. Zahlreiche andere Studien bestätigen auch das Vorhandensein einer multiplen Sklerose in der Familie als Risikofaktor. Ein erhöhtes Risiko für Mäusekontakte und Kohleheizung sollte in weiteren Untersuchungen überprüft werden. Für den bei den MS-Kranken gefundenen, selteneren Befall mit Würmern deutet sich eine biologische Plausibilität über die vermehrte TH2-Zellantwort bei Wurmbefall an. Zum Auftreten von Sinusitiden, das in der eigenen Studie seltener bei den Fällen war, liegen kontroverse Befunde bisheriger Untersuchungen vor. Ein protektiver Einfluss der Diphtherieimpfung wurde ebenfalls von anderen Untersuchern gefunden und sollte weiter überprüft werden. Letztendlich ist in der vorliegenden Arbeit eine Selektions-Verzerrung des MS-Risikos durch die ländliche Wohnortgröße, die nicht kontrolliert werden konnte, nicht auszuschließen, so dass eine zunächst vorsichtige Interpretation am Platze ist.
Auxiliar-vermittelte Synthese von nicht-natürlichen Aminosäuren als Bausteine für RNA-Liganden
(2005)
In den letzten Jahren wurde deutlich, daß mRNAs regulatorische Elemente aufweisen.Ein Beispiel hierfür ist z. B. die Transkription des Human Immunodeficiency Virus Typ1 (HIV-1). Die Arginin-reiche Domäne des Tat-Proteins interagiert hierbei mit einer Bindungstelle innerhalb der Bulge-Region der TAR-RNA. Das Vorliegen des hochkonservierten Tat-TAR-Komplexes ist die Voraussetzung für die effiziente Transkription viraler Gene. Eine kompetitive Bindung synthetischer Liganden an die Bulge-Region sollte daher den viralen Vermehrungszyklus unterbrechen. Hochspezifische Liganden mit inhibitorischem Potential sind somit von größtem Interesse. Für eine hohe Liganden-Affinität sind neben ionischen Wechselwirkungen und HBrücken-Interaktionen vor allem auch Stapelwechselwirkungen (stacking) von entscheidender Bedeutung. Die Ligandensuche wurde auf Tripeptide fokussiert. Da die Anzahl natürlich vorkommender aromatischer Aminosäuren sehr limitiert ist,erfolgte im Rahmen dieser Arbeit zunächst eine stereoselektive Synthese von neuen,nicht-natürlichen Aminosäuren mit heteroaromatischen Seitenketten. Um den generellen Einsatz dieser Bausteine in kombinatorischen Bibliotheken zu demonstrieren,wurden zunächst Tripeptide des Musters Arg-X-Arg hergestellt. Bereits diese Tripeptide zeigten in einem Fluoreszenz-Assay inhibierende Effekte auf den Tat- TAR-Komplex von HIV-1 mit IC50-Werten von 2 - 80 µM. Diese vielversprechenden Liganden wiesen auch in einem Tat-TAR kontrollierten Reportergen-Assay stark inhibierende Wirkung in den Zellkulturen auf. Am Beispiel eines Peptides ließ sich mittels NMR-Spektroskopie eine Komplexkonformation bestimmen, die der des bekannten TAR-Argininamid-Komplexes entspricht. Durch den Einsatz von nichtnatürlichen und Standard-Aminosäuren in kombinatorischen Tripeptidbibliotheken (split and combine-Methode) konnte die Suche von potentiellen Peptid-Liganden um ein Vielfaches erweitert werden. Über ein on-bead-Screening ließen sich weitere vielversprechende TAR-bindende Tripeptide identifizieren. Die RNA-Ligandensuche wurde desweiteren auf die psi-RNA (HIV-1) und auf die mRNA des onkogenen bcr-abl Proteins ausgeweitet. Auch hier konnten einige RNA-bindende Tripeptide isoliert werden.
Katheterverschluß des Vorhofseptumdefektes unter besonderer Berücksichtigung der Langzeitergebnisse
(2004)
Zwischen 5/93 und 12/1999 wurde bei 166 Patienten mit einem ASD vom Sekundum-Typ und bei 178 Patienten mit persistierendem Foramen Ovale versucht, den intreratrialen Defekt transfemoral zu verschließen. Dies gelang bei 156 Patienten mit ASD (Erfolgsquote 94%) und bei allen Patienten mit PFO. Dabei wurden ASDOS-, Buttoned Device-, Angelwing-, CardioSeal- , Amplatzer- , Starflex-, und Helex-Okkluder verwendet. In dieser Arbeit sollen die Akutergebnisse und insbesondere der Langzeitverlauf nach diesen Verschlüssen dokumentiert werden. Das Alter der 115 weiblichen und 51 männlichen Patienten mit ASD betrug im Mittel 47,1 ± 17 (13 – 77) Jahre, das der 97 weiblichen und 91 männlichen Patienten mit PFO 46 ± 13 (17 – 75) Jahre. Die Defektgröße der ASD im transösophagealen Echokardiogramm betrugen 14,1 ± 6,7 (3,4 - 29,4) mm (n=117). Mittels Ballonpassage gemessen betrugen sie 20,6 ± 5,3 (6 – 35) mm (n=150), der Stretched diameter betrug 17,6 ± 4,7 (7 – 29) mm (n=97). Die Defektgröße der PFO betrug 12,3 ± 3,3 (4 – 24) mm (Ballonpassage n=173) bzw. 8,9 ± 3,1 (3 – 20) mm (Stretched diameter n=122). Bei 130 Patienten (78,3%) mit ASD gelang der Verschluß im ersten Versuch. Bei 9 (5,4%) waren mehrere Versuche in einer Sitzung nötig, bei 6 (3,6%) führte erst eine zweite Sitzung zum Erfolg. Bei 6 (4,6%) wurde ein zweiter Okkluder implantiert. Insgesamt konnten 156 Patienten (94%) erfolgreich transfemoral behandelt werden. Bei 10 Patienten (6 %) gelang der transfemorale Verschluß nicht. Der Verschluß des PFO war bei allen Patienten erfolgreich. Bei 179 der 188 Patienten (95,2%) gelang der Verschluß im ersten Versuch. Bei 4 Patienten (2,1%) waren mehrere Versuche in einer Sitzung nötig, bei 2 Patienten (1,1%) führte erst die zweite Sitzung zum Erfolg. Bei 2 Patienten (1,1%) wurde aufgrund von Restshunt ein zweiter Okkluder implantiert. Der Nachbeobachtungszeitraum betrug im Mittel bei den ASD-Patienten 23,7 und bei den PFO-Patienten 21,3 Monate. Bei den 101 ASD-Patienten, bei denen sowohl vor, als auch nach dem Eingriff das Shuntvolumen bestimmt wurde, sank das Verhältnis von Qp/Qs signifikant von 2 ± 0,5 auf 1,1 ± 0,3 (p<0,001). Im TEE war 6 Monate nach dem Defektverschluß (n=121) bei 77,7% der Patienten kein Shunt mehr feststellbar, bei 8,3% war ein sehr kleiner Shunt (<2 mm) und bei 14,1% ein Shunt >2 mm vorhanden. Jedoch hatten 51,9% der Patienten, bei denen ein Restshunt vorlag, mehr als einen Defekt. Es traten in den ersten 6 Monaten folgende Komplikationen auf: Embolie bei Vorhofflimmern (n=1), Dislokation des Okkluders (mit operativer Entfernung) (n=1), Perforation des Vorhofs durch den Schirm (n=1), retroperitoneale Blutung (n=1), Synkopen bei älterer Patientin (n=1). Die Komplikationsrate betrug 7,7%. Im Langzeitverlauf gab es folgende Komplikationen: Mitralinsuffizienz (n=1), Dislokation des Okkluders (n=2), Hirnstamminsult bei intaktem Okkluder ohne Restshunt (n=1), Hörsturz (n=1), Thrombus (n=1). Die Komplikationsrate betrug 1,6% pro Jahr. Bei den Patienten mit PFO ereigneten sich in den ersten 6 Monaten an Komplikationen Rezidivinsulte (n=3), davon 1 mit Dislokation des Okkluders und Infektionen (n=1). Die Rate an Komplikationen betrug in dieser Zeit 4,3% pro Jahr. Die Rate an Rezidiven betrug 3,2%. Im Langzeitverlauf zeigten sich an Komplikationen Rezidivinsulte bei intaktem Okkluder ohne Restshunt (n=2) und Blutungen (n=1). Die Rezidivrate betrug im gesamten postinterventionellen Verlauf 1,5% pro Jahr.
With ubiquitous use of digital camera devices, especially in mobile phones, privacy is no longer threatened by governments and companies only. The new technology creates a new threat by ordinary people, who now have the means to take and distribute pictures of one’s face at no risk and little cost in any situation in public and private spaces. Fast distribution via web based photo albums, online communities and web pages expose an individual’s private life to the public in unpreceeded ways. Social and legal measures are increasingly taken to deal with this problem. In practice however, they lack efficiency, as they are hard to enforce in practice. In this paper, we discuss a supportive infrastructure aiming for the distribution channel; as soon as the picture is publicly available, the exposed individual has a chance to find it and take proper action.
Gewalt in der Schule
(2004)
Korrektur zu: C.P. Schnorr: Security of 2t-Root Identification and Signatures, Proceedings CRYPTO'96, Springer LNCS 1109, (1996), pp. 143-156 page 148, section 3, line 5 of the proof of Theorem 3. Die Korrektur wurde präsentiert als: "Factoring N via proper 2 t-Roots of 1 mod N" at Eurocrypt '97 rump session.
Let G be a finite cyclic group with generator \alpha and with an encoding so that multiplication is computable in polynomial time. We study the security of bits of the discrete log x when given \exp_{\alpha}(x), assuming that the exponentiation function \exp_{\alpha}(x) = \alpha^x is one-way. We reduce he general problem to the case that G has odd order q. If G has odd order q the security of the least-significant bits of x and of the most significant bits of the rational number \frac{x}{q} \in [0,1) follows from the work of Peralta [P85] and Long and Wigderson [LW88]. We generalize these bits and study the security of consecutive shift bits lsb(2^{-i}x mod q) for i=k+1,...,k+j. When we restrict \exp_{\alpha} to arguments x such that some sequence of j consecutive shift bits of x is constant (i.e., not depending on x) we call it a 2^{-j}-fraction of \exp_{\alpha}. For groups of odd group order q we show that every two 2^{-j}-fractions of \exp_{\alpha} are equally one-way by a polynomial time transformation: Either they are all one-way or none of them. Our key theorem shows that arbitrary j consecutive shift bits of x are simultaneously secure when given \exp_{\alpha}(x) iff the 2^{-j}-fractions of \exp_{\alpha} are one-way. In particular this applies to the j least-significant bits of x and to the j most-significant bits of \frac{x}{q} \in [0,1). For one-way \exp_{\alpha} the individual bits of x are secure when given \exp_{\alpha}(x) by the method of Hastad, N\"aslund [HN98]. For groups of even order 2^{s}q we show that the j least-significant bits of \lfloor x/2^s\rfloor, as well as the j most-significant bits of \frac{x}{q} \in [0,1), are simultaneously secure iff the 2^{-j}-fractions of \exp_{\alpha'} are one-way for \alpha' := \alpha^{2^s}. We use and extend the models of generic algorithms of Nechaev (1994) and Shoup (1997). We determine the generic complexity of inverting fractions of \exp_{\alpha} for the case that \alpha has prime order q. As a consequence, arbitrary segments of (1-\varepsilon)\lg q consecutive shift bits of random x are for constant \varepsilon >0 simultaneously secure against generic attacks. Every generic algorithm using $t$ generic steps (group operations) for distinguishing bit strings of j consecutive shift bits of x from random bit strings has at most advantage O((\lg q) j\sqrt{t} (2^j/q)^{\frac14}).
Let G be a group of prime order q with generator g. We study hardcore subsets H is include in G of the discrete logarithm (DL) log g in the model of generic algorithms. In this model we count group operations such as multiplication, division while computations with non-group data are for free. It is known from Nechaev (1994) and Shoup (1997) that generic DL-algorithms for the entire group G must perform p2q generic steps. We show that DL-algorithms for small subsets H is include in G require m/ 2 + o(m) generic steps for almost all H of size #H = m with m <= sqrt(q). Conversely, m/2 + 1 generic steps are su±cient for all H is include in G of even size m. Our main result justifies to generate secret DL-keys from seeds that are only 1/2 * log2 q bits long.
We present a novel practical algorithm that given a lattice basis b1, ..., bn finds in O(n exp 2 *(k/6) exp (k/4)) average time a shorter vector than b1 provided that b1 is (k/6) exp (n/(2k)) times longer than the length of the shortest, nonzero lattice vector. We assume that the given basis b1, ..., bn has an orthogonal basis that is typical for worst case lattice bases. The new reduction method samples short lattice vectors in high dimensional sublattices, it advances in sporadic big jumps. It decreases the approximation factor achievable in a given time by known methods to less than its fourth-th root. We further speed up the new method by the simple and the general birthday method. n2
We enhance the security of Schnorr blind signatures against the novel one-more-forgery of Schnorr [Sc01] andWagner [W02] which is possible even if the discrete logarithm is hard to compute. We show two limitations of this attack. Firstly, replacing the group G by the s-fold direct product G exp(×s) increases the work of the attack, for a given number of signer interactions, to the s-power while increasing the work of the blind signature protocol merely by a factor s. Secondly, we bound the number of additional signatures per signer interaction that can be forged effectively. That fraction of the additional forged signatures can be made arbitrarily small.
We modify the concept of LLL-reduction of lattice bases in the sense of Lenstra, Lenstra, Lovasz [LLL82] towards a faster reduction algorithm. We organize LLL-reduction in segments of the basis. Our SLLL-bases approximate the successive minima of the lattice in nearly the same way as LLL-bases. For integer lattices of dimension n given by a basis of length 2exp(O(n)), SLLL-reduction runs in O(n.exp(5+epsilon)) bit operations for every epsilon > 0, compared to O(exp(n7+epsilon)) for the original LLL and to O(exp(n6+epsilon)) for the LLL-algorithms of Schnorr (1988) and Storjohann (1996). We present an even faster algorithm for SLLL-reduction via iterated subsegments running in O(n*exp(3)*log n) arithmetic steps.
We show that P(n)*(P(n)) for p = 2 with its geometrically induced structure maps is not an Hopf algebroid because neither the augmentation Epsilon nor the coproduct Delta are multiplicative. As a consequence the algebra structure of P(n)*(P(n)) is slightly different from what was supposed to be the case. We give formulas for Epsilon(xy) and Delta(xy) and show that the inversion of the formal group of P(n) is induced by an antimultiplicative involution Xi : P(n) -> P(n). Some consequences for multiplicative and antimultiplicative automorphisms of K(n) for p = 2 are also discussed.
The general subset sum problem is NP-complete. However, there are two algorithms, one due to Brickell and the other to Lagarias and Odlyzko, which in polynomial time solve almost all subset sum problems of sufficiently low density. Both methods rely on basis reduction algorithms to find short nonzero vectors in special lattices. The Lagarias-Odlyzko algorithm would solve almost all subset sum problems of density < 0.6463 . . . in polynomial time if it could invoke a polynomial-time algorithm for finding the shortest non-zero vector in a lattice. This paper presents two modifications of that algorithm, either one of which would solve almost all problems of density < 0.9408 . . . if it could find shortest non-zero vectors in lattices. These modifications also yield dramatic improvements in practice when they are combined with known lattice basis reduction algorithms.
Public key signature schemes are necessary for the access control to communication networks and for proving the authenticity of sensitive messages such as electronic fund transfers. Since the invention of the RSA scheme by Rivest, Shamir and Adleman (1978) research has focused on improving the e±ciency of these schemes. In this paper we present an efficient algorithm for generating public key signatures which is particularly suited for interactions between smart cards and terminals.
We present a novel parallel one-more signature forgery against blind Okamoto-Schnorr and blind Schnorr signatures in which an attacker interacts some times with a legitimate signer and produces from these interactions signatures. Security against the new attack requires that the following ROS-problem is intractable: find an overdetermined, solvable system of linear equations modulo with random inhomogenities (right sides). There is an inherent weakness in the security result of POINTCHEVAL AND STERN. Theorem 26 [PS00] does not cover attacks with 4 parallel interactions for elliptic curves of order 2200. That would require the intractability of the ROS-problem, a plausible but novel complexity assumption. Conversely, assuming the intractability of the ROS-problem, we show that Schnorr signatures are secure in the random oracle and generic group model against the one-more signature forgery.
We present a practical algorithm that given an LLL-reduced lattice basis of dimension n, runs in time O(n3(k=6)k=4+n4) and approximates the length of the shortest, non-zero lattice vector to within a factor (k=6)n=(2k). This result is based on reasonable heuristics. Compared to previous practical algorithms the new method reduces the proven approximation factor achievable in a given time to less than its fourthth root. We also present a sieve algorithm inspired by Ajtai, Kumar, Sivakumar [AKS01].
Mit dem World Wide Web sind der Bestand und die Verfügbarkeit von Informationen rapide angewachsen. Der Einzelne hat Schwierigkeiten, der Menge an Informationen und Wissen Herr zu werden und so der Informationsüberflutung zu begegnen. Dieses Problem wurde von Forschern und Technikern bereits frühzeitig erkannt und durch verschiedene Konzepte wie die intelligente Suche und die Klassifikation von Informationen zu lösen versucht. Ein weiteres Konzept ist die Personalisierung, die das bedarfsgerechte Zuschneiden von Informationen auf die Bedürfnisse des einzelnen Anwenders zum Ziel hat. Diese Arbeit beschreibt dazu eine Reihe von Personalisierungstechniken und im Speziellen das Kollaborative Filtern als eine dieser Techniken. Bestehende Schwächen des Kollaborativen Filterns wie zu dünn besetzte Benutzerprofile und das mangelnde Erkennen von Änderungen im Benutzerinteresse im Verlauf der Zeit werden durch verschiedene Ansätze zu entschärfen versucht. Dazu wird eine Kombination mit Inhaltsbasierten Filtern und die Verbreiterung der Datenbasis bewerteter Ressourcen betrieben. Ziel ist die Optimierung der Personalisierung, so dass Anwender besser auf sie abgestimmte Informationen erhalten. Ein Teil der beschriebenen Ansätze wird zudem in einem prototypischen Informationssystem umgesetzt, um die Machbarkeit und den Nutzen zu prüfen. Dazu werden der auf der Java 2 Enterprise Edition aufbauende WebSphere Applikationsserver von IBM und die relationale Datenbank DB2 UDB aus gleichem Hause eingesetzt.
Suche im Semantic Web : Erweiterung des VRP um eine intuitive und RQL-basierte Anfrageschnittstelle
(2003)
Datenflut im World Wide Web - ein Problem jedes Internetbenutzers. Klassische Internetsuchmaschinen sind überfordert und liefern immer seltener brauchbare Resultate. Das Semantic Web verspricht Hoffnung - maßgeblich basierend auf RDF. Das Licht der Öffentlichkeit erblickt das Semantic Web vermutlich zunächst in spezialisierten Informationsportalen, so genannten Infomediaries. Besucher von Informationsportalen benötigen eine Abfragesprache, welche ebenso einfach wie eine gewöhnliche Internetsuchmaschine anzuwenden ist. Eine derartige Abfragesprache existiert für RDF zur Zeit nicht. Diese Arbeit stellt eine neuartige Abfragesprache vor, welche dieser Anforderung genügt: eRQL. Bestandteil dieser Arbeit ist der mittels Java implementierte eRQL-Prozessor eRqlEngine, welcher unter http://www.wleklinski.de/rdf/ und unter http://www.dbis.informatik.uni-frankfurt.de/~tolle/RDF/eRQL/ bezogen werden kann.
In dieser Arbeit wurde die Implementierung einer JMX-konformen Managementinfrastruktur für das Agentensystem AMETAS vorgestellt. Darauf basierend wurden im Rahmen des Fehlermanagements Kontrollmechanismen der mobilen Agenten im AMETAS untersucht und eine Lösung für die Lokalisierung von AMETAS-Agenten entworfen und implementiert. Der essentielle Hintergrund für das AMETAS-Management stellt sich folgendermaßen dar: Die Betrachtung des Anwendungs- und Infrastrukturmanagements mit Blick auf die Managementhierarchie stellt die Offenheit und Kooperationsfähigkeit der angestrebten Managementlösung in den Vordergrund. Diese Eigenschaften ermöglichen die Integration der in einem Unternehmen existierenden Managementlösungen. Ziel ist dabei ein kostengünstiges und effizientes Management. Eine Managementarchitektur wird mit Hilfe der informations-, organisations-, kommunikations- und funktionsbezogenen Aspekte beschrieben und modelliert. Anhand dieser Aspekte ist CORBA, DMTF, WBEM und JMX analysiert und ihre Eignung für das AMETASManagement bewertet worden. Neben den allgemeinen Kriterien sind ihre Teilmodelle, ihre Unterstützung des dezentralen und des dynamischen Managements sowie ihre Integrationsfähigkeit im AMETAS zentrale Punkte. Es zeigt sich, dass die JMX die besten Möglichkeiten für das AMETAS-Management bietet. Das OSI-Funktionsmodell klassifiziert die Managementaufgaben und -funktionen in fünf Bereiche, die häufig als FCAPS bezeichnet werden: Fehler-, Konfigurations-, Abrechnungs- , Leistungs- und Sicherheitsmanagement. Diese Klassifikation ist orthogonal zu jeder anderen und bietet einen geeigneten Rahmen für die Aufteilung der Managementaufgaben und - funktionen. Das in dieser Arbeit empfohlene AMETAS-Management orientiert sich hinsichtlich der Managementaufgabenaufteilung am OSI-Modell. Die JMX bietet mächtigeWerkzeuge zur Instrumentierung aller Arten von Ressourcen. Ihre Java-Basiertheit bedeutet eine wesentliche Vereinfachung für das Agentensystem. Die offene Architektur von der JMX ermöglicht die Kooperation des AMETAS-Managements mit anderen Managementstandards. Das AMETAS-Management nutzt die Vorzüge der mobilen Agenten insbesondere im Bereich des Konfigurations- und Fehlermanagements aus. Folgende Eigenschaften zeichnen das AMETAS-Management aus: 1) Verwendung der Agenteninfrastruktur für das Management. Selbiges wird dabei als ein AMETAS-Dienst implementiert und kann alle Möglichkeiten und Dienste der Agenteninfrastruktur nutzen. 2) Verwendung der AMETAS-Agenten und Dienste als Managementwerkzeuge. 3) Selbstmanagement des Systems. Der Managementdienst ist hierfür mit ausreichender Intelligenz ausgestattet. Er nutzt die Mechanismen der Agenteninfrastruktur aus und erledigt diverse Managementaufgaben selbständig. Das Ereignissystem vom AMETAS spielt hierbei eine wichtige Rolle. Die Analyse der Kontrollmechanismen von MASIF, Aglets Workbench und Mole liefert hinsichtlich ihrer Eignung für die Lokalisierung von Agenten im AMETAS folgendes Ergebnis: Die untersuchten Ansätze sind teilweise allgemein anwendbar. Man unterscheidet die nichtdeterministischen Ansätze wie Advertising und Energiekonzept von denen, die bestimmte Spuren von Agenten in einer geeigneten Art hinterlegen. In dieser Hinsicht stellte sich das Pfadkonzept als interessant heraus: Bei diesem Konzept können die Informationen über den Pfad der Migration eines Agenten in geeigneterWeise zeitlich beschränkt oder unbeschränkt gespeichert werden. Eine andere Alternative bietet die Registrierungsmethode. Bei dieser Methode wird ein Agent in einer zentralen Stelle registriert, wobei die eindeutige Identität eines Agenten und die aktuelle Stelle, in der sich ein Agent aufhält, gespeichert werden. Vor dem Hintergrund der erfolgten Analyse empfiehlt sich als Basis für die Lokalisierung von AMETAS-Agenten eine Art Pfadkonzept: Die Spuren der Agenten werden durch einen Managementdienst gesichert. Will man einen bestimmten Agenten oder eine Gruppe lokalisieren, werden die dezentral vorhandenen Informationen innerhalb eines konsistenten Schnitts (Schnappschuss) ausgewertet. Die Schnappschussmethode empfiehlt sich für die Lokalisierung von Agenten im AMETAS entsprechend den zu Beginn der Arbeit von einem Lokalisierungsmechanismus geforderten Eigenschaften: Sie erlaubt eine zuverlässige Lokalisierung der gesuchten Agenten, deren Autonomie dabei respektiert wird. Die Kosten-Leistungsrelation ist günstig einzuschätzen, da unnötiger Daten- bzw. Agentenverkehr ebenso vermieden wird wie die Pflege umfangreicher, zentralistischer Datenbanken.
Symmetrie
(1997)
Der Malaria verursachende Organismus Plasmodium falciparum (P. falciparum) besitzt in seinem Kerngenom für die Mitochondrien bestimmte Proteine, die als Transportsignal ein mitochondriales Transitpeptid enthalten. Durch die kürzlich erfolgte Sequenzierung des Genoms von P. falciparum ist es wünschenswert, Vohersagealgorithmen für verschiedene Proteinlokalisationen zur Verfügung zu haben. Für andere Organismen etablierte Programme zur Vorhersage von mitochondrialen Transitpeptiden, MitoProtII und TargetP, lieferten bei Anwendung auf Sequenzen aus P. falciparum nur unbefriedigende Ergebnisse. MitoProtII erzielte in einer 20-fachen Kreuzvalidierung einen Mathews-Koeffizienten von cc = 0,49, TargetP erzielte in diesem Fall einen Mathews-Koeffizienten von cc = 0,60. TargetP erzielte für die Sequenzen aus P. falciparum nur eine Selektivität von 47%, MitoProtII nur eine Sensitivität von 35%. Dieser Ergebnisse haben die Entwicklung eines speziell auf P. falciparum trainierten Vorhersagemodells wünschenswert gemacht. Kerncodierte mitochondriale Precursorproteine aus P. falciparum wurden mit statistischen Methoden, Hauptkomponentenanalyse, selbstorganisierenden Karten und überwachten neuronalen Netzen analysiert und mit solchen aus anderen Organismen verglichen. Zwei Repräsentationen der Datensätze wurden gewählt, Aminosäurehäufigkeiten und 19 physikochemische Eigenschaften. Ein grundsätzlich unterschiedlicher Aminosäuregebrauch konnte festgestellt werden. Glycin, Alanin, Prolin und Arginin werden in P. falciparum mit weniger als 60% der Häufigkeit in der Swiss-Prot-Datenbank, Version 36, verwendet. Isoleucin, Tyrosin, Asparagin und Lysin werden hingegen mit mehr als 150% der Häufigkeit in der Referenzdatenbank verwendet. Diese Häufigkeitsmuster wurden, mit Variationen, auch in allen Targetingsequenzen beobachtet. In der Datenanalyse mittels Hauptkomponentenanalyse und selbstorganisierenden Karten ließen sich cytoplasmatische Proteine in beiden Repräsentationen klar von der Gruppe mitochondrialer, extrazellulärer und apicoplastischer Proteine trennen. Die Trennung innerhalb der zweiten Gruppe war weniger deutlich. Ein neuronales Netz (PlasMit) zur Vorhersage mitochondrialer Transitpeptide in P. falciparum wurde entwickelt. Basierend auf der relativen Aminosäurehäufigkeitsverteilung innerhalb der ersten 24 N-terminalen Aminosäuren lieferte es einen Mathews- Korrelationskoeffizienten von 0,74 (86% korrekt vorhergesagte Sequenzen) in einer 20fachen Kreuzvalidierung. Dieses Netz sagte 2449 (24%) der 10276 vorhergesagten Open Reading Frames aus dem Genom von P. falciparum als mögliche mitochondrial lokalisierte Proteine voraus. Ein Netz mit identischer Topologie wurde auf eine geringere Anzahl falsch-positiver Vorhersagen trainiert und erzielte einen Mathews-Koeffizienten von 0,51 (84% korrekte Vorhersagen) in einer 10fachen Kreuzvalidierung. Dieses Netz sagte 903 (8,8%) potentielle mitochondriale Precursorproteine unter den 10276 vorhergesagten Open Reading Frames voraus. Sämtliche Trainingsdatensätze, die Open Reading Frames des Genoms von P. falciparum, sowie das Netz, das den höchsten Mathews-Koeffizienten erzielt hat, sind per Web unter http://www.modlab.de, Menüpunkt PlasMit, erreichbar.
Der Eisenbahngüterverkehr verliert weiterhin Marktanteile an den Straßengüterverkehr. Dies ist nicht nur eine Folge der Tatsache, daß sich die geringeren externen Effekte der Bahn nicht genügend "auszahlen", die Bahn weist bei ihrer jetzigen Betriebsweise auch systembedingte Nachteile auf. Für den immer bedeutsameren Transport von Nicht-Massengütern in kleinen Mengen ist wohl der LKW als wesentlich kleinere Einheit als der Eisenbahnzug geeigneter. Eine Möglichkeit für die Bahn, diesem Problem zu begegnen, besteht in der Einführung einer neuen Transporttechnologie, die auf einzeln angetriebenen Güterwagen basiert, die ohne Fahrer automatisch gesteuert ihren Weg vom Start- zum Zielort selbsttätig finden. Die gesellschaftliche Erwünschtheit von mehr Schienengüterverkehr wird zu einem Gutteil mit der größeren Umweltfreundlichkeit, den geringeren externen Effekten der Eisenbahn begründet. Ob allerdings dieser Vorteil der Bahn erhalten bleibt, wenn versucht wird, die Vorteile eines dezentral gesteuerten automatischen Fahrens zu realisieren, stand bisher nicht fest. Die Arbeit untersucht diese Fragestellung durch die Rückführung externer Effekte auf naturwissenschaftlich-technische Grundlagen und kommt zu dem Ergebnis, daß 1. externe Nutzen in nennenswertem Umfang nicht einzuberechnen sind - weder im üblichen Sinne als statische technologische externe Effekte noch unter Berücksichtigung evolutionärer, dynamischer Aspekte; daß weiterhin 2. eine Einführung eines automatisierten und dezentralisierten Eisenbahngüterverkehrs eine deutliche Reduzierung der externen Effekte des Verkehrs erwarten läßt, und daß dabei 3. die Luftverschmutzung durch Abgase etwa "in der Mitte" zwischen heutigem Straßen- und Schienenverkehr liegt, Stau- und Unfallkosten jedoch im wesentlichen weiterhin den günstigeren Werten der Bahn entsprechen. Die Arbeit zeigt insgesamt, daß entgegen der ursprünglichen Befürchtung die externen Kosten eines automatisierten und dezentralisierten Schienengüterverkehrs dicht bei denen der bisherigen Bahn liegen. Trotzdem sind externe Kosten zu internalisieren, wo dies möglich scheint - nicht zuletzt, weil Ausmaß und Richtung des technischen Fortschritts durch Signale über die wirklichen Knappheiten gelenkt werden müssen. Die praktische Durchführbarkeit eines Schienengütertransports mit dezentral gesteuerten fahrerlosen Gütertriebwagen müßte in einem nächsten Schritt in der Praxis erprobt werden, weiterer Forschungsbedarf bleibt auch bei der Frage der Unfallsicherheit eines solchen Systems bestehen.
Gegenstand dieser Arbeit ist das Entropiegesetz und seine Bedeutung für die Umweltökonomie. Das Grundgesetz vom Niedergang , wie Schütze es genannt hat, trifft in seiner ursprünglichen Bedeutung Aussagen über die Umwandlung von verschiedenen Formen von Energie bzw. über ihre Nutzbarkeit u.a. für menschliche Belange. So ist zu erklären, daß die stärkste Beschäftigung der Ökonomen mit dem Entropiegesetz in der Folge der sog. Ölkrise und der Studie Grenzen des Wachstums stattfand, da zu dieser Zeit der Gedanke einer plötzlichen Erschöpfbarkeit der Energiequellen um so stärker in den Vordergrund drang, wie es in der Zeit davor normal erschien, daß sich der Energieverbrauch regelmäßig verdoppelte. Das Thema physikalische Grenzen des wirtschaftlichen Wachstums ist in der öffentlichen wie auch in der (wirtschafts-) wissenschaftlichen Diskussion durch aktuellere und akutere Probleme in den Hintergrund gedrängt worden und mit ihm auch der Begriff Entropie. Diese akuteren Probleme sind vor allem im Zusammenhang mit Stoffen zu sehen, die den Bereich des menschlichen Wirtschaftens verlassen. Die zunehmende Umweltverschmutzung stellt sich in den letzten Jahren als das vordringliche Problemfeld für die Umweltökonomie dar. Zu erinnern wäre hier beispielhaft einerseits an die Unfälle bei Sandoz in Basel und des Kernkraftwerks in Tschernobyl sowie die Havarie des Tankers Exxon Valdez in Alaska. Andererseits ist aber auch der Normalbetrieb mit Problematiken wie der u.a. durch FCKWs zunehmenden Zerstörung der Ozonschicht oder auch dem übermäßigen Auftreten von Ozon in Bodennähe im Zusammenhang mit dem photochemischen Smog verbunden...
Der Golem, so wie er in der jüdischen Tradition lebendig ist, zeichnet sich durch Merkmale aus, die in der Meyrinkschen Bearbeitung wiederkehren. Zunächst ist es das Verhältnis des Schöpfers zum Geschöpf, das im Akt der Schöpfung eines Golem zelebriert wird: In der Erschaffung des Golem wird der Mensch, das Geschöpf Gottes, selbst zum Schöpfer und partizipiert so am göttlichen Sein. Dieser Schöpfungsakt kehrt eine Spaltung hervor, die im "Golem" in dem Motiv des Doppelgängers pointiert wird: Das Geschöpf kann Schöpfer sein. Wie wir im ersten Kapitel sehen werden ist von besonderem Interesse am Akt der Golemerschaffung die Rolle, die die Sprache dabei spielt. Die mittelalterlichen Rituale, die sich um die Golemschöpfung bilden, sind hervorgebracht durch eine "linguistische Technik", durch Rezitationen von Permutationen des hebräischen Alphabets. Die Rolle der Sprache im Ritual sowie die kabbalistische Sprachauffassung läßt als eine mögliche Interpretation der Golemschöpfung zu, daß in diesem Ritual die Einführung des Menschen in die Sprache inszeniert wird: Golem, das Unfertige, kommt durch symbolische Operationen zum Sein, wie das nichtsprechende Menschenwesen, das auf besondere Art "golem" ist, durch die symbolische Ordnung zum Subjekt wird. Vor allem im letzten Kapitel werden wir im Zusammenhang mit der strukturalen Psychoanalyse untersuchen, inwieweit der Golem in Meyrinks Darstellung, Züge dieses zur Sprachekommens trägt. Die genuine Spaltung des Subjekts, die sich im Doppelgänger widerspiegelt, und die Wiederholung, als Wieder-Holung vergessener Geschichte und als ein Mittel zur vollen Präsenz, zum Sein ohne den Mangel zu kommen, wird hierbei besonders berücksichtigt und als ein Effekt von Sprachlichkeit verstanden. Die Darstellung der literarischen Rezeption des Stoffes ergänzt den religionsgeschichtlichen Überblick und beide gemeinsam bilden den Hintergrund für eine vorläufige Einschätzung von Meyrinks "Golem". Die Biographie Meyrinks stellt in wesentlichen Zügen Meyrinks Werdegang als Literat und Okkultist und die Entstehungsgeschichte des "Golem" dar. Dabei ist es eine Besonderheit von Meyrinks Entwicklung als Literat, nämlich die Tatsache, daß seine literarischen Anfänge in mündlicher Erzählung von Geschichten liegen, der hierbei besonderes Interesse gilt. Die wechselseitige Abhängigkeit von Erzählen und Erzählsituation beim mündlichen Erzählen enthält ein Moment von literarischer Beeinflussung der Lebenswelt: Das Erzählen ist geprägt von der Erzählsituation, die es selbst im Erzählen gestaltet. Eine Eigenart seines Schreibens, das "Schreiben unter Diktat", eine Art von "écriture automatique", und sein Literaturverständnis, sein Vertrauen in die Macht des Wortes, weist im biographischen Teil voraus auf den Aspekt der Wirkung von Literatur auf die Lebenswirklichkeit des Lesers, die den Abschluß des dritten Kapitels, der Untersuchung des Rahmens, bildet. In diesem Kapitel wenden wir verschiedene Theorien des Rahmens auf Meyrinks Roman an, um jeweils verschiedene Aspekte am "Golem" deutlich zu machen. Zuletzt führen wir ein eigenes Modell, das Moebiusband, ein, um die Struktur von Rahmen- und Binnenerzählung als ein Phänomen der Grenze und des Übergangs zu verdeutlichen. Diese Grenze - im Rückgriff auf Bohrers Diktum vom "Schein in der Kunst als ihre Grenze" - gemeinsam mit einigen Passagen des "Golem", in denen die Fiktion selbstreflexiv wird, läßt diesen Roman als Dichtung über Dichtung erscheinen. Dieser letzte Aspekt wird im vierten Kapitel vertiefend ausgeführt. Es sind dort im wesentlichen zwei Unterscheidungen von Norbert Reichel: "Das Motiv des Felsenmenschen" und "Die Sehn-Sucht nach dem Fortschritt zur Ruhe", die das begriffliche Instrumentarium für die Untersuchung der Bedeutung des Gettos, der Isolation, den Räumen und der Flucht ins Überhistorische zur Verfügung stellt. Beide Unterscheidungen charakterisieren dabei die besondere Situation des Dichters im bürgerlichen Zeitalter und dessen Reflex auf seine soziale Umwelt, der durch die Momente des Rückzugs und der Re-Aristokratisierung geprägt ist. Der Golem, so wie Meyrink ihn darstellt, hat eine besondere Eigenart: Seine Erscheinung ist abhängig von dem Gegenüber, dem er begegnet. Er begegnet Zwakh wie ein Gespenst; die Frau des Kabbalisten Hillel wiederum meint im Golem ihre eigene Seele erblickt zu haben; der Masse der Gettobewohner ist der Golem ein Wesen, das verschwindet, je mehr es auf die Betrachter zukommt, je mehr es sich nähert; Pernath schließlich begegnet der Golem in sich wandelnder Gestalt und erscheint als Katalysator einer geistigen Entwicklung. Nicht anders geht es dem Interpreten, dessen Blick eingeschränkt - eingeschränkt und gleichzeitig geschärft - ist durch die Fragen, die er an den Text stellt. "Der Golem" erscheint in jeweils verschiedener Hinsicht. Was wir für dieses Mal außerhalb des Blickfelds gelassen haben, sind die mystischen und okkultistischen Elemente, die Möglichkeit, den "Golem" als esoterische Fabel zu lesen. Einzig der Schluß dieser Arbeit eröffnet einen Zugang in dieser Hinsicht.
Die vorliegende Diplomarbeit beschreibt den Aufbau und erste Anwendungen einer neuartigen Technik zur Manipulation von Fallenpotentialen für Bose-Einstein-Kondensate. Das Dipolpotential, das ein gegen die atomare Resonanz verstimmter Laserstrahl auf die Atome ausübt, wird hierzu genutzt. Es wurde eine Apparatur aufgebaut, mit der sehr schnelle räumliche Bewegung und gleichzeitige Intensitätsänderung von Laserstrahlen erzielt wird. Durch schnelles Scannen des Laserstrahls in x- und y-Richtung und gleichzeitige Modulation seiner Intensität werden beliebige zeitgemittelte Potentiale erzeugt. Diese Potentiale wurden sowohl als räumliche und/oder zeitliche Modifikation herkömmlicher Magnetfallenpotentiale als auch als eigenständige Fallen mit neuartiger Geometrie verwendet. Mit diesem Aufbau wurden Experimente an Bose-Einstein-Kondensaten durchgeführt, bei denen die große räumliche und zeitliche Auflösung genutzt wurden. Die Speicherung von Atomen in zeitgemittelten, rotverstimmten optischen Fallen verschiedener Geometrie wurde demonstriert und eine durch das Scannen hervorgerufene Aufheizung der Probe wurde gefunden und untersucht. Dies ist die erstmalige Speicherung von Bose- Einstein-Kondensaten in zeitgemittelten Dipolfallen, deren Gestalt im Prinzip frei wählbar ist. Außerdem wurden kollektive Anregungen eines Bose-Einstein-Kondensats in einer Magnetfalle untersucht, die durch zeitgemittelte optische Potentiale induziert wurden. Der Schwerpunkt dieser Untersuchung waren insbesondere Moden mit hohem Drehimpuls, die in rein magnetischen Fallenpotentialen zuvor nicht angeregt worden waren. Bisherige Limitation von Gleichstrommagnetfallen, in denen nur zylindersymmetrische Moden angeregt werden konnten, wurden durch die Verwendung zeitgemittelten optischen Potentialen zusätzlich zum Magnetfallenpotential umgangen. In einem dritten Experiment konnte der suprafluide Charakter eines Bose-Einstein-Kondensats studiert werden. Die kritische Geschwindigkeit für die Bewegung eines Fremdobjektes duch das Kondensat wurde erstmals gemessen. Als Fremdobjekt diente ein gegen die atomare Resonanz blauverstimmter Laserstrahl, der auf die Atome ein repulsives Potential ausübt.