Refine
Year of publication
Document Type
- Article (31520)
- Part of Periodical (11577)
- Book (8336)
- Doctoral Thesis (5743)
- Part of a Book (3973)
- Working Paper (3393)
- Review (2940)
- Contribution to a Periodical (2368)
- Preprint (2359)
- Conference Proceeding (1747)
Language
- German (42904)
- English (30350)
- French (1060)
- Portuguese (840)
- Spanish (309)
- Croatian (302)
- Multiple languages (263)
- Italian (198)
- mis (174)
- Turkish (168)
Has Fulltext
- yes (76892) (remove)
Keywords
- Deutsch (1076)
- Literatur (868)
- taxonomy (771)
- Deutschland (553)
- Rezension (511)
- new species (457)
- Rezeption (354)
- Frankfurt <Main> / Universität (341)
- Übersetzung (329)
- Geschichte (300)
Institute
- Medizin (7823)
- Präsidium (5225)
- Physik (4810)
- Extern (2738)
- Wirtschaftswissenschaften (2705)
- Gesellschaftswissenschaften (2375)
- Biowissenschaften (2209)
- Biochemie und Chemie (1981)
- Frankfurt Institute for Advanced Studies (FIAS) (1887)
- Informatik (1729)
Based on the quadratic residuosity assumption we present a non-interactive crypto-computing protocol for the greater-than function, i.e., a non-interactive procedure between two parties such that only the relation of the parties' inputs is revealed. In comparison to previous solutions our protocol reduces the number of modular multiplications significantly. We also discuss applications to conditional oblivious transfer, private bidding and the millionaires' problem.
Elektronische Informationsressourcen, wie beispielsweise elektronische Zeitschriften und Datenbanken, gewannen in den letzten Jahren zunehmend an Bedeutung im Feld der akademischen Literaturversorgung. Mit diesem Trend einhergehend konnten Veränderungen der Bezugspraxis bei Bibliotheken einerseits und neue Preis- und Geschäftsmodelle bei Verlagen andererseits beobachtet werden. Neben der bequemeren Nutzbarkeit für die Leser bietet das neue Medium auch neue Formen des Kostencontrollings und der Optimierung für die Abnehmer. Dieser Workshop soll sich mit der Frage der Kostenrechnung und -verteilung für Konsortien für elektronische Informationsressourcen insbesondere eJournals beschäftigen. Dabei werden die neuen Möglichkeiten der Nutzungsmessung besonders berücksichtigt. Neben den theoretischen Ansätzen werden auch konkrete Beispielrechnungen durchgeführt und die Praktikabilität für die Umsetzung in der Praxis im besonderen Maße diskutiert.
We propose a new security measure for commitment protocols, called Universally Composable (UC) Commitment. The measure guarantees that commitment protocols behave like an \ideal commitment service," even when concurrently composed with an arbitrary set of protocols. This is a strong guarantee: it implies that security is maintained even when an unbounded number of copies of the scheme are running concurrently, it implies non-malleability (not only with respect to other copies of the same protocol but even with respect to other protocols), it provides resilience to selective decommitment, and more. Unfortunately two-party uc commitment protocols do not exist in the plain model. However, we construct two-party uc commitment protocols, based on general complexity assumptions, in the common reference string model where all parties have access to a common string taken from a predetermined distribution. The protocols are non-interactive, in the sense that both the commitment and the opening phases consist of a single message from the committer to the receiver.
We review the representation problem based on factoring and show that this problem gives rise to alternative solutions to a lot of cryptographic protocols in the literature. And, while the solutions so far usually either rely on the RSA problem or the intractability of factoring integers of a special form (e.g., Blum integers), the solutions here work with the most general factoring assumption. Protocols we discuss include identification schemes secure against parallel attacks, secure signatures, blind signatures and (non-malleable) commitments.
Die Arbeitsgruppe für Chemie und Physik der Atmosphäre am Institut für Meteorologie und Geophysik der Johann Wolfgang Goethe-Universität Frankfurt befasst sich unter anderem mit der Entwicklung einer Continous Flow Diffusion Chamber zur Erfassung und Klassifikation von CCN und IN. Diese Partikel besitzen eine Größe im Mikrometerbereich und sind somit nicht leicht zu erfassen und zu unterscheiden. Bei vergleichbaren Versuchen beschränkte sich bisher die automatische Auswertung auf die Anzahl der Partikel. Es gibt noch kein Verfahren, welches eine Klassifikation in CCN und IN videobasiert vornehmen kann. Es lag ebenfalls kein reales Bildmaterial vor, welches zu Testzwecken für die Klassifikation geeignet gewesen wäre. Basierend auf den physikalischen und meteorologischen Grundlagen wurde mittels Raytracing ein künstlicher Bilddatensatz mit kleinen Eiskristallen und Wassertröpfchen unter verschiedenen Betrachtungsverhältnissen erstellt. Anhand dieses Bilddatensatzes wurde dann ein Verfahren zur Klassifikation entwickelt und prototypisch implementiert, welches dies mittels Methoden aus der graphischen Datenverarbeitung und durch Berechnung der Momente vornimmt. Es war notwendig, Verfahren aus der Kameratechnik zu betrachten, die später in der realen Anwendung mit sehr kurzzeitiger Belichtung, geeigneter Optik und hochauflösender CCD-Kamera detaillierte Bilder von Objekten in der Größe von einigen 10µm liefern können.
We show that non-interactive statistically-secret bit commitment cannot be constructed from arbitrary black-box one-to-one trapdoor functions and thus from general public-key cryptosystems. Reducing the problems of non-interactive crypto-computing, rerandomizable encryption, and non-interactive statistically-sender-private oblivious transfer and low-communication private information retrieval to such commitment schemes, it follows that these primitives are neither constructible from one-to-one trapdoor functions and public-key encryption in general. Furthermore, our separation sheds some light on statistical zeroknowledge proofs. There is an oracle relative to which one-to-one trapdoor functions and one-way permutations exist, while the class of promise problems with statistical zero-knowledge proofs collapses in P. This indicates that nontrivial problems with statistical zero-knowledge proofs require more than (trapdoor) one-wayness.
We show lower bounds for the signature size of incremental schemes which are secure against substitution attacks and support single block replacement. We prove that for documents of n blocks such schemes produce signatures of \Omega(n^(1/(2+c))) bits for any constant c>0. For schemes accessing only a single block resp. a constant number of blocks for each replacement this bound can be raised to \Omega(n) resp. \Omega(sqrt(n)). Additionally, we show that our technique yields a new lower bound for memory checkers.
Gleichgewichte auf Überschussmärkten : Theorie und Anwendbarkeit auf die Regelenergiezone der RWE
(2003)
Diese Version entspricht im wesentlichen der begutachteten Version bis auf die Kürzung von Satz 3.3.1 um einen für den Rest unbedeutenden Teil. Das Ziel folgender Arbeit ist es, mit einem intuitiven Ansatz eine spezielle Wettbewerbsform zweier interagierender Märkte zu modellieren und anschließend zu analysieren. Abschließend werden die theoretischen Ergebnisse mit den Beobachtungen an einem existierenden Markt - dem deutschen Energiemarkt - verglichen. In dieser behandelten Wettbewerbsform wird ein nicht lagerbares Gut an zwei aneinander gekoppelten Märkten gehandelt. Während Handel und Preisfindung am ersten Markt den üblichen Gepflogenheiten folgen, müssen alle Teilnehmer sämtliche Güter, welche nicht unmittelbar nach Lieferung verbraucht werden, am zweiten Marktplatz (dem Überschussmarkt) gegen ein gewisses Entgelt zur Verfügung stellen. Alle Teilnehmer, welche nicht genügend Güter am ersten Markt geordert haben, werden auf dem Überschussmarkt zu einem gewissen Preis mit der noch benötigten Menge versorgt. Einem Marketmaker auf dem zweiten Marktplatz fällt die Aufgabe zu, einen Preis festzustellen, zu dem diejenigen entschädigt werden, welche ihre Überschüsse zur Verfügung stellen müssen bzw. den diejenigen zu bezahlen haben, deren Gütermangel ausgeglichen wird. Weiterhin stellt dieser sicher, dass zu jedem Zeitpunkt genügend Güter vorhanden sind, so dass der Bedarf aller Teilnehmer zu jedem Zeitpunkt sichergestellt ist. Ziel ist es nun herauszufinden, welche gewinnmaximierenden Einkaufsstrategien die Marktteilnehmer verfolgen sollten und welche Konsequenzen sich daraus auf den deutschen Energiemarkt ableiten lassen.
Aufgebautes Zwei-Farben Lasersystem: Das für diese Arbeit aufgebaute Zwei-Farben Lasersystem erfüllt im Hinblick auf Abstimmbarkeit wie auch auf die erreichbare Ausgangsleistung die für diese Arbeit gesetzten Ziele. Für weiterführende Experimente muss allerdings berücksichtigt werden, dass für eine Steigerung der Ausgangsleistung, wie auch eine weiterführende Stabilisierung weitere Untersuchungen nötig sind, bei denen aber das jetzige System als Grundlage dienen kann und die mit ihm gewonnenen Erkenntnisse berücksichtigt werden müssen. Auch die verwendete Nahfeld-Beleuchtung erfüllt vor allem mit der automatischen Steuerung verknüpft wertvolle Dienst bei der Charakterisierung der untersuchen LT-GaAs Photomischer. Dieses System ist allerdings nicht geeignet, als direkter Entwurf für das endgültige System des SOFIA- oder ALMA-Projektes anzusehen, was auch nie seine Aufgabe war. Numerische Simulation: Die in dieser Arbeit vorgestellte numerische Simulation des DC-Stromverhaltens stellt einen guten Ansatz dar, die Effekte, die durch eine inhomogene Beleuchtung der Photomischer bedingt durch die verwendete Glasfaser entstehen, quantitativ und qualitativ zu erfassen und sie mit realen Photomischern und den durchgeführten Messungen in Verbindung zu bringen. Durchgeführte Nahfeld-Messungen: Die in dieser Arbeit vorgestellten automatischen Nahfeld-Messungen über einen 1D- und 2D-Bereich ermöglichen mit Hilfe des aufgebauten Lasersystems die in dieser Arbeit untersuchten LT-GaAs Photomischer in ihrem Verhalten zu untersuchen, wie es auch möglich ist, ein vollständiges Kennlinien-Feld aufzunehmen.
Given a real vector alpha =(alpha1 ; : : : ; alpha d ) and a real number E > 0 a good Diophantine approximation to alpha is a number Q such that IIQ alpha mod Zk1 ", where k \Delta k1 denotes the 1-norm kxk1 := max 1id jx i j for x = (x1 ; : : : ; xd ). Lagarias [12] proved the NP-completeness of the corresponding decision problem, i.e., given a vector ff 2 Q d , a rational number " ? 0 and a number N 2 N+ , decide whether there exists a number Q with 1 Q N and kQff mod Zk1 ". We prove that, unless ...
Given x small epsilon, Greek Rn an integer relation for x is a non-trivial vector m small epsilon, Greek Zn with inner product <m,x> = 0. In this paper we prove the following: Unless every NP language is recognizable in deterministic quasi-polynomial time, i.e., in time O(npoly(log n)), the ℓinfinity-shortest integer relation for a given vector x small epsilon, Greek Qn cannot be approximated in polynomial time within a factor of 2log0.5 − small gamma, Greekn, where small gamma, Greek is an arbitrarily small positive constant. This result is quasi-complementary to positive results derived from lattice basis reduction. A variant of the well-known L3-algorithm approximates for a vector x small epsilon, Greek Qn the ℓ2-shortest integer relation within a factor of 2n/2 in polynomial time. Our proof relies on recent advances in the theory of probabilistically checkable proofs, in particular on a reduction from 2-prover 1-round interactive proof-systems. The same inapproximability result is valid for finding the ℓinfinity-shortest integer solution for a homogeneous linear system of equations over Q.
We analyse a continued fraction algorithm (abbreviated CFA) for arbitrary dimension n showing that it produces simultaneous diophantine approximations which are up to the factor 2^((n+2)/4) best possible. Given a real vector x=(x_1,...,x_{n-1},1) in R^n this CFA generates a sequence of vectors (p_1^(k),...,p_{n-1}^(k),q^(k)) in Z^n, k=1,2,... with increasing integers |q^{(k)}| satisfying for i=1,...,n-1 | x_i - p_i^(k)/q^(k) | <= 2^((n+2)/4) sqrt(1+x_i^2) |q^(k)|^(1+1/(n-1)) By a theorem of Dirichlet this bound is best possible in that the exponent 1+1/(n-1) can in general not be increased.
Czech Phycological Society is a scientific organization that is dedicated to the development of phycology in the area of the Czech Republic and Central Europe, and the distribution of phycological information. The Society organizes the Annual Meetings and Conferences and publishes the Bulletin Czech Phycology.
In discussing final status issues, Palestinians and Israelis approach the question of the refugees and the right of return from radically different perspectives. The Palestinian narrative maintains that the Zionists forcibly expelled the Arab refugees in 1948. The Palestinians insist on the right of the refugees to return to their homes or, for those who choose not to do so, to accept compensation. And they demand that Israel unilaterally acknowledge its complete moral responsibility for the injustice of the refugees’ expulsion. In contrast, the Israeli narrative rejects the refugees’ right of return. Israel argues that it was the Arabs who caused the Palestinian refugee problem, by rejecting the creation of the State of Israel and declaring war upon it—a war which, like most wars, created refugee problems, including a Jewish one. Israel sees the return of Palestinian refugees as an existential threat, insofar as it would undermine the Jewish character and the viability of the state. The two sides’ traditional solutions make no attempt to reconcile these opposing narratives. Yet such an attempt is vital if the issue is to be engaged. Hence the Joint Working Group on Israeli–Palestinian Relations developed two compromise solutions. They narrow the gap between the positions, but do not fully reconcile them. The compromise solution espoused by the Palestinian members of the Joint Working Group would insist that Israel acknowledge both its responsibility for creating the refugee problem and the individual moral right of Palestinian refugees to return. But it recognizes that, in view of the changed situation of the refugees over 50 years, and taking into account Israel’s constraints, the return of only a limited number would be feasible. Israel would pay both individual and collective compensation. The Palestinians’ case for an Israeli withdrawal to the 1967 borders would be strengthened as a result of their willingness to absorb the refugees in the Palestinian state. Under the compromise solution proposed by the Israeli members of the Joint Working Group, Israel would acknowledge that it shares, with the other parties to the 1948 war, practical, but not moral, responsibility for the suffering of the refugees, and that rectification of their plight is a central goal of the peace process. Israel would accept repatriation of tens of thousands of refugees under its family reunification program. Israel would pay collective compensation to the Palestinian state, paralleled by Arab State compensation for Jewish refugees from 1948. In seeking to further reconcile these two compromise solutions, we note that they reflect a large measure of agreement between Palestinians and Israelis: that Israel had a historic role in the events that created the refugee issue; that a massive exercise of the right of return is unrealizable, and “return”/family reunification will be limited; that a larger number of Palestinians will “return” to the Palestinian state; that some resettlement will take place in host states, primarily Jordan; that Israel will pay some form of compensation; and that closing the file on the refugee issue means the dismantling of the entire international apparatus that has sustained the refugees—camps, UNRWA, etc. But there remain significant gaps between the two sides’ compromise proposals as well. These concern the nature of Israeli acknowledgement of Palestinian suffering and the responsibility for it; the nature and number of “return”/family reunification; the nature and size of compensation, and its linkage to compensation for Jewish refugees from 1948; and the size of “return” to the Palestinian state. In order to negotiate an agreed solution that bridges these remaining gaps, Israelis and Palestinians will have to develop the mutual trust required to further accommodate each other’s narratives. They will also, inevitably, have to factor the refugee/right of return issue into the broader fabric of tradeoffs and compromises that will characterize a comprehensive solution to the conflict. This will involve additional parties—primarily the refugee host countries—as well as related substantive issues, such as borders.
We generalize the concept of block reduction for lattice bases from l2-norm to arbitrary norms. This extends the results of Schnorr. We give algorithms for block reduction and apply the resulting enumeration concept to solve subset sum problems. The deterministic algorithm solves all subset sum problems. For up to 66 weights it needs in average less then two hours on a HP 715/50 under HP-UX 9.05.
We propose a fast variant of the Gaussian algorithm for the reduction of two dimensional lattices for the l1-, l2- and l-infinite- norm. The algorithm runs in at most O(nM(B) logB) bit operations for the l-infinite- norm and in O(n log n M(B) logB) bit operations for the l1 and l2 norm on input vectors a, b 2 ZZn with norm at most 2B where M(B) is a time bound for B-bit integer multiplication. This generalizes Schönhages monotone Algorithm [Sch91] to the centered case and to various norms.
Die Rolle der löslichen Guanylatzyklase in der Signaltransduktion durch Superoxidanionradikale
(2005)
Im kardiovaskulären System ist die lösliche Guanylatzyklase (soluble guanylyl cyclase, sGC) ein Schlüsselenzym der •NO/cGMP-Signaltransduktion. Stickstoffmonoxid (•NO) aktiviert durch direkte Anbindung an das Häm-Eisen die Produktion von zyklischem 3’,5’-Guanosinmonophosphat (cGMP). In glatten Muskelzellen führt ein erhöhter cGMP-Spiegel zur Aktivierung von cGMP-abhängigen Proteinkinasen (cGK) und letztendlich zur Vaso-dilatation. Superoxidanionradikale (•O2-) sind an der Entstehung und Progression von Herz-Kreis¬lauferkrankungen beteiligt. Im vaskulären Gewebe stellt •O2- einen Gegenspieler zum •NO dar. So führt eine vermehrte Produktion von •O2- zu einer eingeschränkten Bioverfügbarkeit von •NO (•O2- + •NO -> ONOO-) (Ohara et al., 1993a). Im Rahmen dieser Arbeit sollte aufgeklärt werden, ob bei einer vaskulären Störung des •NO-Systems die Funktion der sGC durch •O2- auch direkt betroffen ist. Damit könnte dem Superoxid eine weit größere biologische Bedeutung zukommen als bisher angenommen, nämlich die Funktion als Signaltransduktionsmolekül mit der sGC als definiertem Rezeptor und Effektor. Die sGC-Aktivitätsuntersuchungen mit gereinigter sGC zeigten eine konzentrationsab¬hängige Hemmung der basalen und der YC-1- (100 µM) stimulierten (•NO-unabhängigen) sGC-Aktivität durch das •O2--generierende System Xanthinoxidase/Hypoxanthin (XO/HX) (IC50 (basal) = 0,0031 vs. IC50 (YC-1) = 0,022 mU/ml). Die Aufhebung dieser Hemmung durch Superoxiddismutase (SOD, 100 U/ml) deutete auf eine spezifische und schnell-reversible Hemmung der sGC-Aktivität durch •O2- hin. Die in-vitro gezeigte Hemmung der sGC-Aktivität durch •O2- konnte auch in-vivo nach¬gewiesen werden. Die Produktion von •O2- in kultivierten glatten Muskelzellen der Rattenaorta (VSMC) konnte mit Elektronenspinresonanz (ESR) und Lucigenin-abhängiger Chemilumineszenz gezeigt werden. Dabei wurde mit ESR eine ca. 5-fache Steigerung der basalen •O2--Produktion mit dem intrazellulären Redoxcycler Dimethoxynaphtochinon (DMNQ, 10 µM) beobachtet. Auch die Aktivierung membranständiger NADPH-Oxidasen durch die physiologischen Aktivatoren Angiotensin II (Ang II, 100 nM) und platelet-derived growth factor (PDGF, 50 ng/ml) führten zu einer ca. 2-fach gesteigerten •O2--Produktion. Die Hemmung der cGMP-Produktion durch •O2- in kultivierten VSMC konnte in-vivo mittels Enzym-Immuno-Assays (cGMP-EIA) [YC-1 (100µM) = 100 % vs. YC-1 + DMNQ (10 µM) = 21 % vs. YC-1 + PDGF (50 ng/ml) = 76,6 %] nachgewiesen werden. Zusätzlich wurde die Auswirkung von •O2- auf die cGMP-abhängige Signaltransduktion mit Immu¬noblotting (Western-Blot) von phosphoryliertem Vasodilator-stimulierten Phosphoprotein (VASP, vasodilator-stimulated phosphoprotein) gezeigt. Intrazelluläre •O2--Produktion durch Redoxcycling (DMNQ, 10 µM) reduzierte die YC-1-stimulierte Phosphorylierung von VASP um 44,4 %. In weiteren Untersuchungen sollte der molekulare Mechanismus der schnell-reversiblen Hemmung der sGC durch •O2- auf Ebene der sGC aufgeklärt werden. Dabei wies die direkte Detektion von Sulfinyl-Radikalen auf eine Oxidation von Proteinthiolen durch •O2- hin. Der spezifische Austausch von Cysteinen der sGC mittels Punktmutation und die Expression der sGC-Mutanten in COS1-Zellen zeigte, dass Thiol-Gruppen der sGC mit •O2- interagieren. Dabei stellte sich heraus, dass die sGC-Mutanten a1/b1C541S und a1C238S/b1 viel sensitiver auf •O2- (XO 3 mU/ml) reagieren als die Wildtyp-sGC (WTa1/WTb1 = -62 % vs. WTa1C238S/WTb1 = -93,7 % vs. WTa1/b1C541S = -90,2 %). Um zu untersuchen, ob das Häm-Eisen der sGC an der Aktivitätshemmung durch •O2- beteiligt ist, wurde einerseits das Häm entfernt (Tween 20), andererseits das Häm-Fe2+ zum Häm-Fe3+ oxidiert (NS2028). Beide Behandlungen führten zu einer weitgehend YC-1-insen¬sitiven sGC. Die mit Protoporphyrin IX (PIX) aktivierte Häm-freie sGC und die mit HMR3448 aktivierte Häm-oxidierte sGC wurden durch XO/HX wesentlich weniger potent gehemmt als die YC-1-sensitive sGC. Dieser Befund deutet auf eine Beteiligung des Häm-Eisens bei der Aktivitätshemmung der sGC durch •O2- hin. Die in dieser Arbeit gezeigte direkte und schnell-reversible Hemmung der sGC-Aktivität durch •O2- weist der löslichen Guanylatzyklase eine neue biologische Funktion zu. Die sGC könnte als Rezeptor- und Effektorenzym die Signaltransduktion des Signalmoleküls •O2- vermitteln.
Seit Mitte der 60er Jahre diesen Jahrhunderts hat sich in Europa und Nordamerika vor allem unter Jugendlichen und jungen Erwachsenen der Konsum von gesetzlich verbotenen Substanzen ausgebreitet. Ungefähr gleichzeitig setzte sowohl in den Massenmedien als auch in professionellen Kreisen eine heftige Diskussion über dieses Phänomen ein, die bis heute andauert, was nicht nur auf die fraglos nach wie vor aktuelle Problematik von Sucht bzw. Abhängigkeit insbesondere bezüglich Heroin, sondern auch auf die ständigen Veränderungen in den Konsumentenszenen wie auch die vielfältigen Aktivitäten im Bereich der Drogenpolitik zurückzuführen ist. Diese erhielt auch stets Nahrung von der wissenschaftlichen Diskussion, die sich seit Mitte der 80er Jahre vereinzelt auch mit "Nicht-Junkie-" Kreisen beschäftigt, welche den Konsum von Cannabis, Kokain, Designer-Drogen, Halluzinogenen und teilweise auch Heroin in einen "normalen" Alltag integriert haben, wobei bezüglich Deutschland meines Wissens noch keine umfangreicheren qualitativen Studien für diesen Bereich existieren. Dabei ist von Bedeutung, daß nach Schätzungen, teilweise aus quantitativen Erhebungen abgeleitet (großangelegte repräsentative Umfragen liegen nicht vor und könnten allein schon wegen der Illegalität keine seriösen Ergebnisse liefern), bei den meisten, wenn nicht gar bei allen genannten "Szene-Drogen" die überwiegende Mehrheit der Konsumenten (auch der Gewohnheitskonsumenten), zu diesen "integrierten" oder auch "kontrollierten" Gebrauchern zu zählen ist. Diese Vermutung steht im Gegensatz zur lange Jahre von den Vertretern der offiziellen Drogenpolitik und dem Großteil der Medien verbreiteten Meinung, daß jeglicher Konsum der durch das Betäubungsmittelgesetz illegalisierten Substanzen zu Sucht und sozialer Verelendung führe. Weiterhin werden die Verbote für bestimmte Substanzen oft so begründet, daß diese Drogen "kulturfremd" seien und deshalb keine historisch gewachsenen, konsumregulierenden Sitten und Gebräuche bezüglich des Konsums existieren wie z.B. bei Alkohol, Tabak und Kaffee. Daher ist es natürlich interessant zu erfahren, welcher Art die Mechanismen sind, die, der obigen Auffassung widersprechend, ein alltagsintegriertes Konsumverhalten auch bei illegalen Drogen ermöglichen, bzw. inwiefern sie den Kontrollmustern für die legalen Drogen ähnlich sind. Dabei muß selbstverständlich stets hervorgehoben werden, welche Drogen konsumiert werden, da einerseits zwar alle diese Substanzen den illegalen Status mit den entsprechenden alltagspraktischen Konsequenzen gemeinsam haben, aber doch erhebliche Unterschiede existieren in der jeweiligen Wirkungsweise und -intensität (pharmakologisch wie subjektiv), der Gefahr von Überdosierung und körperlichen oder geistigen Schädigungen sowie subkulturellen Zuschreibungen und Einbindungen. Für diese Arbeit habe ich qualitative Interviews mit dreizehn Personen durchgeführt, die allesamt mit mehreren verschiedenen illegalen Drogen Erfahrungen vorweisen können, wobei allerdings zum Teil deutliche Unterschiede bezüglich der Konsumfrequenzen, -mengen und vor allem auch der präferierten Drogen vorliegen. Dabei werde ich, unter Einbeziehung des Konzeptes von drug, set and setting, einerseits Beispiele für die Verschiedenheit von möglichen Konsummustern aufzeigen, gleichzeitig aber versuchen, gerade in bezug auf Funktionen und informelle Kontrollen des Konsums unterschiedlicher Drogen, Gemeinsamkeiten aufzuzeigen.
This study analyses the labour market effects of fixed-term contracts (FTCs) in West Germany by microeconometric methods using individual and establishment level data. In the first part of the study the role of FTCs in firms’ labour demand is analysed. An econometric investigation of the firms’ reasons for using FTCs focussing on the identification of the link between dismissal protection for permanent contract workers and the firms’ use of FTCs is presented. Furthermore, a descriptive analysis of the role of FTCs in worker and job flows at the firm level is provided. The second part of the study evaluates the short-run effects of being employed on an FTC on working conditions and wages using a large cross-sectional dataset of employees. The final part of the study analyses whether taking up an FTC increases the (permanent contract) employment opportunities in the long-run (stepping stone effect) and whether FTCs affect job finding behaviour of unemployed job searchers. Firstly, an econometric unemployment duration analysis distinguishing between both types of contracts as destination states is performed. Secondly, the effects of entering into FTCs from unemployment on future (permanent contract) employment opportunities are evaluated attempting to account for the sequential decision problem of job searchers.
We present an efficient variant of LLL-reduction of lattice bases in the sense of Lenstra, Lenstra, Lov´asz [LLL82]. We organize LLL-reduction in segments of size k. Local LLL-reduction of segments is done using local coordinates of dimension 2k. Strong segment LLL-reduction yields bases of the same quality as LLL-reduction but the reduction is n-times faster for lattices of dimension n. We extend segment LLL-reduction to iterated subsegments. The resulting reduction algorithm runs in O(n3 log n) arithmetic steps for integer lattices of dimension n with basis vectors of length 2O(n), compared to O(n5) steps for LLL-reduction.
In dieser Arbeit wird die erstmals von Stevenson et al. (89, GRL) beschriebene spannungsangetriebene Schmelzsegregation, die Kanalisierungsinstabilität, numerisch mit Hilfe des 2D Finite-Differenzen-Codes FDCON (Schmeling, 00, Kluwer) untersucht. Diese Untersuchung stellt eine Weiterführung der numerischen Experimente von Richardson et al. (96, JGR) und Hall et al. (00, GRL) dar, so dass die Erforschung der Kanalisierungsinstabilität erweitert wird um den Aspekt ihres Verhaltens bezüglich eines äußeren Spannungsfeldes bei verschiedenen initialen Porositätsverteilungen, der Untersuchung der Kanalisierungsinstabilität bei großen Dehnungen und der damit verbundenen Analyse der entstehenden Strukturen, des Einflusses des Auftriebs auf die Ausbildung von Kanalnetzwerken und um die abschließende Prüfung, ob durch ein durch die Kanalisierungsinstabilität ausgebildetes Kanalnetzwerk die Möglichkeit besteht, Schmelze zu einem MOR zu fokussieren. Die Kanalbildung wird derzeit von Holtzman et al. (03, G3) (Hochdruckexperimente an synthetischem Olivin+MORB), Spiegelman et al. (03, G3) (theoretische Untersuchung der Kanalisierungsinstabilität) und Rabinowicz et al. (04, JGR) (numerische Simulation und theoretische Betrachtung der Kanalisierungsinstabilität) intensiv untersucht, die Fokussierung der Schmelze behandeln Sparks et al. (94, Academic Press), Hall et al. (03, G3) sowie Kühn (05, in-press). Viskositätsunterschiede in einer schmelzgefüllten porösen Matrix verursachen bei deren Deformation einen Druckgradienten, welcher die Schmelze in Richtung der maximalen Hauptspannung anreichert und zur Ausbildung von Kanälen, welche eine inhomogene Schmelzverteilung aufweisen, führt. Die Wachstumsrate Alpha dieser Kanäle weist zur Wellenzahl k eine Proportionalität von Alpha ~ ak^2/(1+bk^2) auf. Dieser Zusammenhang hat zur Folge, dass sich ab einer bestimmten Wellenzahl alle Schmelzverteilungen größerer Wellenzahl gleich verstärken. Bei anhaltender Dehnung kann beobachtet werden, dass die ausgebildeten Kanäle an den verarmten Kanalstellen auseinander gerissen werden. Nachfolgend verbinden sich die hierdurch entstandenen Schmelzlinsen unter der Bildung von en-echelon arrays wieder, wodurch sich wiederum ein langer, in etwa um 45° ausgelenkter (linksdrehendes Koordinatensystem, mit 0° gleich der Vertikalen) Kanal bildet. Diese Beobachtungen fanden unter der Bedingung, dass kein Auftrieb zwischen Schmelze und Matrix existiert, statt. Wird dieser Auftrieb hinzugefügt, so ist erkennbar, dass eine Kombination zwischen den die Kanalisierungsinstabilität und den Auftrieb bestimmenden Parametern existiert, bei der sich Solitonen ausbilden. Diese Solitonen folgen bei ihrem schnelleren Aufstieg dem Verlauf der schmelzgefüllten Kanäle und passieren dabei, ohne ihre Form zu verändern, andere kleine Solitonen, die ihren Weg kreuzen. Die durchschnittliche Aufstiegsgeschwindigkeit der Solitonen entspricht einem Vielfachen der Aufstiegsgeschwindigkeit der Schmelze aufgrund von Segregation. Weiterhin deckt sich die Solitonaufstiegsgeschwindigkeit mit der von Schmeling angegebenen. Bisher konnte in die Theorie für trockene (wasserfreie) Medien kein frühzeitiger Abfall der Wachstumsrate bei großen Wellenzahlen implementiert werden. Lediglich unter dem Gesichtspunkt der Diffusion von Wasser zwischen der Matrix und der Schmelze und des erweichenden Effekts von Wasser konnte bei einer spezifischen Wellenzahl eine maximale Wachstumsrate gefunden werden (Hall et al., 2000, GRL). Der Versuch der Anwendung der bisher erzielten Ergebnisse auf die Interaktion eines aufsteigenden Plumes mit einer spreizenden Kruste erbrachte keine direkte Fokussierung der Schmelze zum MOR hin. Die Spannungsverteilung dieser Experimente zeigt, dass der Plumestamm aufgrund eines defokussierenden Kanalnetzwerks im Stamm sowie eines nahezu vertikal verlaufenden Kanalnetzwerks am Rand des Plumestammes von einer Zone erhöhter Schmelzkonzentration ummantelt sein könnte. In dieser Ummantelung steigt die Schmelze dann in vertikal verlaufenden Kanälen auf, wobei sie in den hier vorgestellten Experimenten (Plumekopfausdehnung ~150 km) in einer Entfernung von ~100 km zum MOR auf die Lithosphärenunterseite (Tiefe ~50 km) treffen würde. Aufgrund der Lithosphärenstruktur (Wurzel-t-Gesetz) könnte die Schmelze an der schrägen Lithosphärenunterseite zum MOR hin strömen (Sparks et al., 94, Academic Press sowie Hall et al., 03 G3). Diese Prozesse (Kanalisierungsinstabilität (Stevenson et al., 89, GRL), Entlangströmen der Schmelze an der Lithosphärenunterseite (Sparks et al., 94, Academic Press sowie Hall et al., 03, G3) und der Recyclingprozess der Schmelze) stellen das Erklärungsmodell dieser Arbeit dar, wie eine Fokussierung von Schmelze zum MOR bei einer Interaktion von diesem mit einem Plume aussehen könnte.
Mit Hilfe von Torsionsexperimenten in einem Temperaturbereich von 350° C bis 470° C und einer Anregungsfrequenz von 2*10^{-3} bis 20 Hz ist der komplexe Schermodul G* von Lithiumdisilikatgläsern, welche sich durch einen unterschiedlichen Kristallgehalt auszeichnen (4 Proben, Kristallgehalt: Glas 0=0%, Glas 1=19%, Glas 3=22% und Glas 5=27%), gemessen worden. Hierdurch können weitere rheologische Eigenschaften der Gläser wie der Dämpfungsfaktor \( Q^{-1}, die Viskosität eta und die Aktivierungsenergie E_{alpha} einer Diffusion ermittelt werden. Die Auswertung der Rohdaten des Betrages des komplexen Schermoduls G* und der dazugehörigen Phasenverschiebung phi der Glasproben zeigen eine Zunahme des jeweiligen Wertes bei Erniedrigung der Frequenz und Erhöhung der Temperatur bei steigendem Kristallgehalt. Dies ist dadruch erklärbar, daß ein effektives Schermodul gemessen wird, welches sich aus dem Schermodul der Glasschmelze und dem Schermodul der Kristalle zusammensetzt. Bei Erhöhung der Temperatur erweicht die Glasschmelze langsam, während die Kristalle gegenüber der Glasschmelze hart bleiben. Dies führt zu einem effektiv höheren Schermodul. In den Rohdaten ist bei allen Glasproben die gleiche lineare Zunahme des Dämpfungsfaktors Q^{-1} mit Erniedrigung der Anregungsfrequenz und Erhöhung der Temperatur festzustellen. Somit kann gesagt werden, daß Q^{-1} bei diesen Temperaturen und Anregungsfrequenzen unabhängig vom Kristallgehalt ist. Die gemessenen Werte von Q^{-1} liegen in einem Bereich von 1-0,001. Diese lineare Zunahme bleibt bis hin zu einer Temperatur von 456°C bei Glas 0 und 470°C bei Glas 5 erhalten. Erst dann zeigt sich in einem Anregungsfrequenzbereich von \( 2*10^{-3} - 10^{-2} Hz eine leichte Änderung von Q^{-1} mit steigendem Kristallgehalt. Bedingt durch die Schranken, daß nicht bei höheren Temperaturen als 470°C gemessen werden darf und daß die minimale Anregungsfrequenz der Torsionsmaschine bei 2*10^{-3} Hz liegt, kann diese Änderung in Q^{-1} nicht weiter untersucht werden. Der in der Seismologie interessante Bereich, welcher bei Q^{-1} < 0,01-0,001 liegt, konnte bei diesen Experimenten nicht erreicht werden, da die technischen Voraussetzungen der Torsionsmaschine nur eine genaue Messung von Q^{-1}\approx 0,01 erlauben. Vorliegende Meßdaten, die ein kleineres Q^{-1} als 0,01 aufweisen, streuen zu sehr und sind somit für eine verläßliche Aussage für die Seismologie unbrauchbar. Mit Hilfe des Verfahrens der Masterkurven konnte gezeigt werden, daß sich die rheologischen Eigenschaften von Lithiumdisilikatglas nicht durch einen Maxwell-Körper beschreiben lassen sondern hierzu ein generalisierter Maxwell-Körper nötig ist. Die voneinander unabhängigen Berechnungen der Aktivierungsenergie aus dem Dämpfungsfaktor Q^{-1} und aus den Masterkurven zeigen innerhalb der Fehlerschranken keine Veränderung der gemessenen Werte der Aktivierungsenergie auf. Die Werte sind jedoch fast um die Hälfte kleiner als der in der Literatur angegebene Wert. Es ist ein Verfahren entwickelt worden, welches unter gewissen Voraussetzungen mit Hilfe des Konzeptes der Masterkurven eine Bestimmung einer unbekannten Viskosität eines viskoelastischen Materials bei der Temperatur \( \widetilde{T} \) in Abhängigkeit des Kristallgehaltes ermöglicht. Voraussetzung zur Bestimmung der unbekannten Viskositäten bei unterschiedlichen Kristallgehalten ist es, daß zumindest eine Viskosität bei der Temperatur \( \widetilde{T} \) und ein Kristallgehalt bekannt sind und daß sich die Form des Spektrums des generalisierten Maxwell-Körpers, der das Glas beschreibt, bei einer Variation des Kristallgehaltes nicht verändert. Des weiteren konnte gezeigt werden, daß die Einstein-Roscoe-Formel, welche die effektive Viskosität einer Flüssigkeit in Abhängigkeit der Kristallgeometrie und des Kristallgehaltes beschreibt (15), auch auf die Lithiumdisilikatglasproben, welche einen unterschiedlichen Kristallgehalt jedoch weniger als 30% aufweisen, anwendbar ist.
We introduce algorithms for lattice basis reduction that are improvements of the famous L3-algorithm. If a random L3-reduced lattice basis b1,b2,...,bn is given such that the vector of reduced Gram-Schmidt coefficients ({µi,j} 1<= j< i<= n) is uniformly distributed in [0,1)n(n-1)/2, then the pruned enumeration finds with positive probability a shortest lattice vector. We demonstrate the power of these algorithms by solving random subset sum problems of arbitrary density with 74 and 82 many weights, by breaking the Chor-Rivest cryptoscheme in dimensions 103 and 151 and by breaking Damgard's hash function.
Die zu erwartende vorzeitige Auflösung des Bundestages wird wohl dazu führen, daß der derzeit dem Parlament vorliegende Entwurf eines Gesetzes über die Offenlegung der Vorstandsvergütungen nicht mehr verabschiedet wird. Das bietet die Gelegenheit, die diesem Entwurf und dem in den Bundestag eingebrachten Entwurf der FDP-Fraktion zugrundeliegende Grundkonzeption darzustellen und im Hinblick auf eine spätere Gesetzgebung zu prüfen, ob die Entwürfe ihren Zielen gerecht werden (dazu unter II.). Zu erwägen ist überdies grundsätzlich, ob eine detaillierte gesetzliche Regelung zur Offenlegung der Vorstandsvergütungen anzuraten, oder ob es, wie vielfach vorgeschlagen, beim bisherigen Rechtszustand verbleiben sollte, wonach die gesetzliche Pflicht zu den pauschalen Vergütungsangaben gemäß §§ 285 Nr. 9, 314 Abs. 1 Nr. 6 HGB ergänzt wird durch die Empfehlung des Deutschen Corporate Governance Kodex (Ziff. 4.2.4 DCGK), in börsennotierten Gesellschaften die Vorstandsvergütungen individuell auszuweisen (dazu unten III.).
Im wohl spektakulärsten Wirtschaftsstrafverfahren der deutschen Nachkriegsgeschichte, dem "Mannesmann-Prozeß", ging und geht es neben Barabfindungen von Versorgungsleistungen vor allem um die Zulässigkeit von Anerkennungsprämien für ausscheidende und bereits ausgeschiedene Vorstandsmitglieder. Das Verfahren vor der Wirtschaftsstrafkammer des Landgerichts Düsseldorf war nicht nur in den Medien, sondern auch in der aktien- und strafrechtlichen Literatur mit lebhaftem Interesse verfolgt worden. Nach sechsmonatiger Hauptverhandlung endete es zwar mit Freisprüchen für alle Angeklagten, aber auch mit dem Vorwurf gewichtiger Verstöße gegen das Aktienrecht. Das Urteil der Strafkammer ist gleichfalls bereits mehrfach in der wissenschaftlichen Literatur unter verschiedenen Gesichtspunkten ausführlich gewürdigt worden. Ein Ende der Diskussion ist noch nicht abzusehen, da gegen das Urteil Revision beim Bundesgerichtshof eingelegt worden ist. Die folgenden Bemerkungen befassen sich mit einem aktienrechtlichen Teilaspekt, der Zulässigkeit nachträglicher, im ursprünglichen Anstellungsvertrag eines Vorstandsmitglieds nicht vorgesehener Anerkennungsprämien.
We call a vector x/spl isin/R/sup n/ highly regular if it satisfies =0 for some short, non-zero integer vector m where <...> is the inner product. We present an algorithm which given x/spl isin/R/sup n/ and /spl alpha//spl isin/N finds a highly regular nearby point x' and a short integer relation m for x'. The nearby point x' is 'good' in the sense that no short relation m~ of length less than /spl alpha//2 exists for points x~ within half the x'-distance from x. The integer relation m for x' is for random x up to an average factor 2/sup /spl alpha//2/ a shortest integer relation for x'. Our algorithm uses, for arbitrary real input x, at most O(n/sup 4/(n+log A)) many arithmetical operations on real numbers. If a is rational the algorithm operates on integers having at most O(n/sup 5/+n/sup 3/(log /spl alpha/)/sup 2/+log(/spl par/qx/spl par//sup 2/)) many bits where q is the common denominator for x.
We study the following problem: given x element Rn either find a short integer relation m element Zn, so that =0 holds for the inner product <.,.>, or prove that no short integer relation exists for x. Hastad, Just Lagarias and Schnorr (1989) give a polynomial time algorithm for the problem. We present a stable variation of the HJLS--algorithm that preserves lower bounds on lambda(x) for infinitesimal changes of x. Given x \in {\RR}^n and \alpha \in \NN this algorithm finds a nearby point x' and a short integer relation m for x'. The nearby point x' is 'good' in the sense that no very short relation exists for points \bar{x} within half the x'--distance from x. On the other hand if x'=x then m is, up to a factor 2^{n/2}, a shortest integer relation for \mbox{x.} Our algorithm uses, for arbitrary real input x, at most \mbox{O(n^4(n+\log \alpha))} many arithmetical operations on real numbers. If x is rational the algorithm operates on integers having at most \mbox{O(n^5+n^3 (\log \alpha)^2 + \log (\|q x\|^2))} many bits where q is the common denominator for x.
Black box cryptanalysis applies to hash algorithms consisting of many small boxes, connected by a known graph structure, so that the boxes can be evaluated forward and backwards by given oracles. We study attacks that work for any choice of the black boxes, i.e. we scrutinize the given graph structure. For example we analyze the graph of the fast Fourier transform (FFT). We present optimal black box inversions of FFT-compression functions and black box constructions of collisions. This determines the minimal depth of FFT-compression networks for collision-resistant hashing. We propose the concept of multipermutation, which is a pair of orthogonal latin squares, as a new cryptographic primitive that generalizes the boxes of the FFT. Our examples of multipermutations are based on the operations circular rotation, bitwise xor, addition and multiplication.
Parallel FFT-hashing
(1994)
We propose two families of scalable hash functions for collision resistant hashing that are highly parallel and based on the generalized fast Fourier transform (FFT). FFT hashing is based on multipermutations. This is a basic cryptographic primitive for perfect generation of diffusion and confusion which generalizes the boxes of the classic FFT. The slower FFT hash functions iterate a compression function. For the faster FFT hash functions all rounds are alike with the same number of message words entering each round.
We report on improved practical algorithms for lattice basis reduction. We propose a practical floating point version of theL3-algorithm of Lenstra, Lenstra, Lovász (1982). We present a variant of theL3-algorithm with "deep insertions" and a practical algorithm for block Korkin—Zolotarev reduction, a concept introduced by Schnorr (1987). Empirical tests show that the strongest of these algorithms solves almost all subset sum problems with up to 66 random weights of arbitrary bit length within at most a few hours on a UNISYS 6000/70 or within a couple of minutes on a SPARC1 + computer.
We call a distribution on n bit strings (", e) locally random, if for every choice of e · n positions the induced distribution on e bit strings is in the L1 norm at most " away from the uniform distribution on e bit strings. We establish local randomness in polynomial random number generators (RNG) that are candidate one way functions. Let N be a squarefree integer and let f1, . . . , f be polynomials with coe±- cients in ZZN = ZZ/NZZ. We study the RNG that stretches a random x 2 ZZN into the sequence of least significant bits of f1(x), . . . , f(x). We show that this RNG provides local randomness if for every prime divisor p of N the polynomials f1, . . . , f are linearly independent modulo the subspace of polynomials of degree · 1 in ZZp[x]. We also establish local randomness in polynomial random function generators. This yields candidates for cryptographic hash functions. The concept of local randomness in families of functions extends the concept of universal families of hash functions by Carter and Wegman (1979). The proofs of our results rely on upper bounds for exponential sums.
We propose two improvements to the Fiat Shamir authentication and signature scheme. We reduce the communication of the Fiat Shamir authentication scheme to a single round while preserving the e±ciency of the scheme. This also reduces the length of Fiat Shamir signatures. Using secret keys consisting of small integers we reduce the time for signature generation by a factor 3 to 4. We propose a variation of our scheme using class groups that may be secure even if factoring large integers becomes easy.
We introduce novel security proofs that use combinatorial counting arguments rather than reductions to the discrete logarithm or to the Diffie-Hellman problem. Our security results are sharp and clean with no polynomial reduction times involved. We consider a combination of the random oracle model and the generic model. This corresponds to assuming an ideal hash function H given by an oracle and an ideal group of prime order q, where the binary encoding of the group elements is useless for cryptographic attacks In this model, we first show that Schnorr signatures are secure against the one-more signature forgery : A generic adversary performing t generic steps including l sequential interactions with the signer cannot produce l+1 signatures with a better probability than (t 2)/q. We also characterize the different power of sequential and of parallel attacks. Secondly, we prove signed ElGamal encryption is secure against the adaptive chosen ciphertext attack, in which an attacker can arbitrarily use a decryption oracle except for the challenge ciphertext. Moreover, signed ElGamal encryption is secure against the one-more decryption attack: A generic adversary performing t generic steps including l interactions with the decryption oracle cannot distinguish the plaintexts of l + 1 ciphertexts from random strings with a probability exceeding (t 2)/q.
Assuming a cryptographically strong cyclic group G of prime order q and a random hash function H, we show that ElGamal encryption with an added Schnorr signature is secure against the adaptive chosen ciphertext attack, in which an attacker can freely use a decryption oracle except for the target ciphertext. We also prove security against the novel one-more-decyption attack. Our security proofs are in a new model, corresponding to a combination of two previously introduced models, the Random Oracle model and the Generic model. The security extends to the distributed threshold version of the scheme. Moreover, we propose a very practical scheme for private information retrieval that is based on blind decryption of ElGamal ciphertexts.
Let b1, . . . , bm 2 IRn be an arbitrary basis of lattice L that is a block Korkin Zolotarev basis with block size ¯ and let ¸i(L) denote the successive minima of lattice L. We prove that for i = 1, . . . ,m 4 i + 3 ° 2 i 1 ¯ 1 ¯ · kbik2/¸i(L)2 · ° 2m i ¯ 1 ¯ i + 3 4 where °¯ is the Hermite constant. For ¯ = 3 we establish the optimal upper bound kb1k2/¸1(L)2 · µ3 2¶m 1 2 1 and we present block Korkin Zolotarev lattice bases for which this bound is tight. We improve the Nearest Plane Algorithm of Babai (1986) using block Korkin Zolotarev bases. Given a block Korkin Zolotarev basis b1, . . . , bm with block size ¯ and x 2 L(b1, . . . , bm) a lattice point v can be found in time ¯O(¯) satisfying kx vk2 · m° 2m ¯ 1 ¯ minu2L kx uk2.
Ziel dieser Arbeit war es, ein sicheres und trotzdem effizientes Preprocessing zu finden. Nach den zurückliegenden Untersuchungen können wir annehmen, dies erreicht zu haben. Wir haben gezeigt, daß eine minimale Workload von Attacken von 272 mit nur 16 Multiplikationen pro Runde und 13 gespeicherten Paaren (ri, xi) erreicht werden kann. Mit der in Abschnitt 12.3 erklärten Variation - der Wert rº k geht nicht in die Gleichungen mit ein - erreichen wir sogar eine Sicherheit von 274. In diesem Fall können wir die Anzahl der gespeicherten Paare auf 12 verringern. Auch von der in Abschnit 12.5 besprochenen Variation erwarten wir eine Erhöhung der Sicherheit. Ergebnisse dazu werden bald vorliegen. Folgender Preprocessing Algorithmus erscheint z.B. nach unserem derzeitigen Wissensstand geeignet: Setze k = 12, l0 = 7, l1 = 3, d0 = 4, d1 = 5, h = 4, ¯h = 1. Initiation: lade k Paare (r0 0, x00 ) . . . , (r0 k 1, x0 k 1) mit x0i = ®r0 i mod p. º := 1. º ist die Rundennummer 1. Wähle l1 2 verschiedene Zufallszahlen a(3, º), . . . , a(l1, º) 2 {º + 1 mod k, . . . , º 2 mod k} a(1, º) := º mod k, a(2, º) := º 1 mod k W¨ahle l1 2 verschiedene Zufallszahlen f(3, º), . . . , f(l1, º) 2 {0, . . . , d1 1}, f(1, º) zuf¨allig aus {h, . . . , d1 1} und f(2, º) zuf¨allig aus {¯h, . . . , d1 1} rº k := rº ºmodk + l1 Xi=1 2f(i,º)rº 1 a(i,º) mod q xk = xºº modk · l1 Yi=1 (xº 1 a(i,º))2f(i,º) mod p 2. w¨ahle l0 1 verschiedene Zufallszahlen b(2, º), . . . , b(l0, º) 2 {º + 1 mod k, . . . , º 1 mod k} b(1, º) := º mod k W¨ahle l0 verschiedene Zufallszahlen g(1, º), . . . , g(l0, º) 2 {0, . . . , d0 1} rº ºmodk := l0 Xi=1 2g(i,º)rº 1 b(i,º) mod q xºº modk = l0 Yi=1 (xº 1 b(i,º))2g(i,º) mod p 3. verwende (rº k, xº k) f¨ur die º te Signatur (eº, yº) gem¨aß yº = rº k + seº mod q 4. º := º + 1 GOTO 1. f¨ur die n¨achste Signatur Die Zufallszahlen a(3, º), . . . , a(l, º), b(2, º), . . . , b(l, º), f(1, º), . . . , f(l, º) und g(1, º), . . . , g(l, º) werden unabhängig gewählt. Dies ist selbstverständlich nur ein Beispiel. Unsere Untersuchungen sind noch nicht abgeschlossen. Wir glauben aber nicht, daß feste Werte a(i, º) und b(i, º) ein effizientes Preprocessing definieren. Wir haben einige Variationen mit solchen weniger randomisierten Gleichungen studiert und immer effiziente Attacken gefunden.
Die vorliegende Studie hat die Häufigkeit familiärer Tumorhäufungen in Familien von Patienten mit kolorektalen Karzinomen und klinische Kriterien untersucht, die mit dem vermehrten Auftreten von Tumoren in diesen Familien assoziiert sind. Die Bedeutung von klinischen Diagnosekriterien zur Erfassung familiärer Häufigkeiten von Tumoren wurde analysiert. Dabei zeigte sich, dass die klassischen Diagnosekriterien im Alltag keine Bedeutung haben (die Amsterdam-Kriterien werden kaum erfüllt). Dass sich andererseits familiäre Tumorhäufungen mit einfachen klinischen Kriterien in hohem Ausmaß erfassen lassen, dazu zählt als wichtiges Kriterium: • Ein weiterer betroffener Patient mit Tumorleiden in der Familien im Diagnosealter <= 55 Jahre, • die Vertikale Transmission HNPCC-typischer Tumore Bei Anwendung dieser Kriterien können nahezu 2/3 der Familiären Cluster erkannt werden. Die Kombination von Kriterien, wie etwa „Diagnosealter des Patienten <= 50 Jahre mit Angehörigen mit Karzinom im Diagnosealter <= 50 Jahre“, sowie die Kombination „Diagnosealter des Patienten <= 50 Jahre und die Vertikale Transmission HNPCC-typischer Karzinome“ verbessert die Erkennung von Familien mit Tumorhäufungen nicht. Das Tumorspektrum in den so definierten Familien entspricht dem des HNPCC. Das legt den Schluss nahe, dass es sich um eine abortive Form des HNPCC oder aber um ein molekulargenetisch differentes, aber in der Manifestation mit dem HNPCC überlappendes Syndrom handeln könnte. Ob bei den so definierten Familien eine präventive Diagnostik erfolgreich ist, bedarf weiterer Studien. Solange kein einfaches molekulargenetisches Verfahren leicht und kostengünstig zur Verfügung steht, sind diese Anamnesekriterien für den klinischen Alltag und für die betroffenen Familien von außerordentlicher Bedeutung.
Es steht außer Zweifel, daß digitale Signaturen schon bald zu unserem Alltag gehören wer- den. Spätestens mit dem Inkrafttreten des Gesetzes zur digitalen Signatur (siehe [BMB]) sind sie zu einem wichtigen Instrument in der Telekommunikation geworden. Dabei kommt der Verwendung von Chipkarten eine wichtige Bedeutung zu: In ihnen lassen sich die sensiblen Daten (z.B. der geheime Schlüssel) auslesesicher aufbewahren; gleichzeitig können sie bequem mitgeführt werden. Aus diesen Gründen erlebt die Verwendung von Chipkarten zur Erzeugung von digitalen Signaturen zur Zeit einen enormen Aufschwung. Problematisch ist jedoch der oft unverhältnismäßig große Berechnungsaufwand für die Erzeugung von digitalen Signaturen. Ziel dieser Arbeit ist es, Methoden zu entwickeln und/oder zu untersuchen, welche die Berechnung digitaler Unterschriften wesentlich beschleunigen. Dabei spiegelt sich die Zweiteilung der in der Praxis hauptsächlich verwendeten Typen von Signaturverfahren in der Struktur der Arbeit wider. Der erste Teil dieser Arbeit untersucht Verfahren zur effizienten Berechnung von RSA-Unterschriften. Dabei entstanden die Untersuchungen in den Abschnitten 3.2.3 und 3.2.4 in Zusammenarbeit mit R. Werchner und der Inhalt der Abschnitte 3.1 - 3.2.4 ist bereits in [MW98] veröffentlicht. Im zweiten Teil entwickeln wir Verfahren zur effizienteren Generierung von Unterschriften, die auf dem diskreten Logarithmus basieren, und untersuchen deren Sicherheit. Dabei entstanden die Untersuchungen in den Abschnitten 4.2 (bis auf 4.2.2) und 4.3.1 in Zusammenarbeit mit C. P. Schnorr und sind teilweise in [MS98] zusammengefaßt. Obwohl diese Arbeit eine mathematische Abhandlung darstellt, versuchen wir, die praktische Anwendung nicht aus den Augen zu verlieren. So orientieren sich die betrachteten Verfahren stets an den durch die verfügbare Technologie gegebenen Rahmenbedingungen. Darüber hinaus richten wir unser Augenmerk weniger auf das asymptotische Verhalten der betrachteten Verfahren, als vielmehr auf konkrete, für die Anwendung relevante Beispiele.
Ein gentherapeutischer Ansatz für die Behandlung der HIV-Infektion ist die "intrazelluläre Immunisierung" von CD4+-Zellen die den Hauptangriffspunkt des HI-Virus darstellen. Potentiell therapeutische Gene zur Hemmung der HIV-Replikation sind in großer Zahl und für praktisch jeden schritt des Replikationszyklus des Virus publiziert. Ein Problem war allerdings bisher das Fehlen eines einheitlichen und reproduzierbaren Vergleichssystems zur Identifizierung erfolgversprechender Gene für Studien im Tiermodell und in der Klinik. In dieser Arbeit wurde ein solches auf die Gentherapie abgestimmtes Zellkultursystem entwickelt, das auf stabilem Transfer von HIV-inhibitorischen Genen durch retrovirale Transduktion von T-Zellen und Belastungsversuchen mit replikationsfähigen Viren beruht. Dazu wurden auf Basis der humanen T-Zellinie PM1 Zellinien etabliert, die das Markergen egfp sowie ein therapeutisches Gen stabil exprimieren. Für den Gentransfer wurden [MLV(GaLV)]-Vektoren verwendet, die sich für die Transduktion von hämatopoetischen Zellen besonders eignen. Mit Hilfe der etablierten HIV-inhibitorischen Gene RevM10 und STHM (membrangebundenes T20) wurden Methoden zur Generierung dieser stabilen Zellinien optimiert. Um eine höchstmögliche Vergleichbarkeit zu erreichen, müssen die Voraussetzungen für eine HIV-Replikation in allen Zellinien in gleicher Weise gegeben sein. Deshalb wurden Zellinien bei mit praktisch gleicher Zellteilungsrate und HIV-Rezeptorexpression etabliert. Die untrschiedliche Hemmwirkung der Kontrollgene konnte so in Belastungsexperimenten mit drei verschiedenen, repräsentativen HIV-1-Laborstämmen reproduzierbar gezeigt werden. Das erarbeitete Zellkultursystem wurde dann zur Evaluierung verschiedener Gene eingesetzt. Zunächst wurden zwei neue Ansätze für die HIV-Gentherapie getestet. Die hohe Wirksamkeit von APOBEC3Gagm gegen HIV-1, die zuvor in einem "single-round"-Infektionssystem gezeigt worden war, konnte bestätigt werden. Der Versuch, das als natürlicher HIV-Inhibitor in humanem Hämofiltrat gefundene Peptild VIRIP auf der Zelloberfläche zu exprimieren, bewirkte hingegen keine HIV-Hemmung. Zusätzlich wurden mehrere potentiell therapeutische Gene getestet, die von Kooperationspartnern im Rahmen eines HIV-Netzwerkes entwickelt worden waren. Für die humanisierte transdominant-negative Gag-Mutante TDsg Delta 2 konnte eine HIV-Hemmwirkung nachgewiesen werden, während weder die Wildtyp-Mutante TDwt Delta 2 noch das minimale GAG-Fragment L2GAL2-V3 eine signifikante Wirkung zeigten. Für die beiden HIV-1 p6-Konstrukte L4 und L6 war eine HIV-Hemmung ebensowenig wie für die gp41 c-tail-Konstrukte 9/1 und 9/2 feststellbar. In weiteren Versuchen konnte gezeigt werden, daß sich die Hemmwirkung der unterschiedlichen Gene gegen HIV-1-Primärisolate im wesentlichen der gegen die Laborstämme entspricht. Nach Infektion der Zellinien mit HIV-2 wurde wie erwartet die Virusreplikation nur durch STHM und TDsg Delta 2 gehemmt. Schließlich wurde getestet, ob sich die Hemmeffekte auch in primären humanen Lymphozyten nachvollziehen lassen. Obwohl aufgrund der in diesen Zellen niedrigen erreichbaren Transduktionseffizienzen und einer starken Donorabhängigkeit keine Standardisierung möglich war, konnte gezeigt werden, daß es prinzipiell möglich ist, Hemmeffekte sichtbar zu machen.
Die Thrombozytenaktivierung, die PLA-Bildung via CD62, die Leukozytenaktivierung und die entzündliche Aktivität am Endothel nehmen in der heutigen pathophysiologischen Vorstellung der peripheren Atherosklerose und ihrer Entstehung eine zentrale Rolle ein. In dieser Querschnittstudie wurden die PLA-Bildung und Marker der Plättchen-, Leukozyten- und Endothelaktivierung (PAC-1, CD62, Mac-1 und sICAM-1) bei 44 Patienten mit peripherer arterieller Verschlusskrankheit unter Therapie mit ASS (n=17), Clopidogrel (n=12), ihrer Kombination (n=8) oder ohne Therapie (n=7) und bei einer Kontrollgruppe, bestehend aus gesunden Probanden (n=9), untersucht. Die Messungen wurden mittels Flowzytometrie im Vollblut ohne (baseline) und nach in vitro Stimulation mit ADP oder TRAP und eines Immunoassays durchgeführt. Die CD62-Expression zeigte sich bei unbehandelten und mit ASS behandelten Patienten ohne und nach Stimulation signifikant höher als bei mit Clopidogrel oder mit einer Kombination aus ASS und Clopidogrel behandelten Patienten. Gleiches galt für die PLA-Bildung (Monozyten-Leukozyten-Aggregate). Die Mac-1-Expression zeigte sich in den mit TRAP oder ADP stimulierten Proben unter einer Kombina-tionstherapie aus ASS und Clopidogrel gegenüber Patienten ohne oder mit ASS Monotherapie signifikant reduziert. Die sICAM-1-Plasmakonzentrationen waren bei gesunden Probanden und bei antiaggregatorische behandelten Patienten signifikant niedriger als bei unbehandelten Patienten. Die Werte unterschieden sich dabei zwischen den verschiedenen antiaggregatorischen Therapien nur unwesentlich. Dies ist die erste Studie, die zeigt, dass die PLA-Bildung bei Patienten mit pAVK vermehrt ist und unter einer Therapie mit Clopidogrel gemindert wird.
In der vorliegenden Arbeit wird das Wachstums- und Zelltodverhalten von Tumoren des zentralen Nervensystems untersucht. Des Weiteren wird die Expression verschiedener Apoptose-assoziierter Faktoren in den Präparaten analysiert und mit Normalkontrollen verglichen. Es zeigt sich, dass Apoptose von Tumorzellen aller untersuchter Hirntumore und Malignitätsgrade vollzogen werden kann. Die Rate apoptotischer Zellen ist jedoch sehr variabel und korreliert nicht mit dem Malignitätsgrad der Tumore. Auch besteht keine Korrelation zwischen der Apoptose- und der Proliferationsrate. Die Ergebnisse legen insgesamt nahe, dass die Apoptoserate nicht als Marker für die Malignität von Tumoren des zentralen Nervensystems verwendet werden kann. Auch unter Einbeziehung Apoptose-assoziierter Faktoren ist eine Gradifikation der Tumore hinsichtlich der Malignität nicht möglich. So unterscheiden sich z.B. atypische (WHO-II) und anaplastische (WHO-III) Meningiome quantitativ und qualitativ nicht signifikant voneinander. Es können ebenfalls keine signifikanten Unterschiede hinsichtlich der Expression der untersuchten Apoptose-assoziierten Faktoren, sowie der Apoptose- und Proliferationsraten zwischen Medulloblastomen und primitiven neuroektodermalen Tumoren (PNETs) festgestellt werden. Dies spricht dafür, dass sich diese Tumore lediglich bezüglich ihrer Lokalisation im zentralen Nervensystem unterscheiden. Die Analyse der Apoptose-assoziierten Faktoren zeigt, dass alle untersuchten Faktoren grundsätzlich in allen untersuchten Tumoren vorkommen, während die Normalkontrollen diese Faktoren nicht exprimieren. Der Vollzug der Apoptose findet jedoch nicht in diesem Maße statt, da die Apoptoserate der Tumore (markiert durch TUNEL) stets wesentlich geringer ist als die Expressionsraten der Apoptose-assoziierten Faktoren. Es ist davon auszugehen, dass entdifferenzierte Tumorzellen entweder nur begrenzt in der Lage sind, ihr apoptotisches „Selbstzerstörungsprogramm“ in Gang zu setzen und zu Ende zu führen, oder, dass apoptosehemmende Mechanismen greifen. Um so interessanter wäre es, durch therapeutische Intervention Apoptose zu initiieren. Die Analyse der einzelnen Apoptose-assoziierten Faktoren liefert Hinweise darauf, an welchen Stellen des apoptotischen Systems eine solche Intervention ansetzen könnte: Die hochmalignen WHO-IV-Tumore zeigen eine signifikante Hochregulation der Effektor-Caspasen-3 und -6. Die physiologischen Aktivierungsmechanismen dieser Caspasen z.B. durch Caspase-2 und TNFalpha scheinen in diesen hochmalignen Tumoren jedoch weniger eine Rolle zu spielen, da diese Faktoren hier nur in geringem Ausmaß exprimiert werden. Jedoch könnten modifizierte, per se aktive Caspase-3- und -6-Moleküle eine interessante therapeutische Option zur Behandlung maligner Tumore des zentralen Nervensystems darstellen. Zu beachten ist aber unter anderem, dass z.B. Glioblastome auch geringe Expressionsraten apoptotischer Faktoren im peritumoralen, mikroskopisch nicht infiltrierten Normalgewebe zeigen. Dies könnte für eine peritumorale Dysfunktion des Hirngewebes sprechen. Welche Rolle dies bei der Behandlung mit Apoptose-stimulierenden Agenzien spielt und wie spezifisch die Anwendung solcher Stimulanzien für Tumorgewebe wären, muss Gegenstand weiterer Studien sein. Die untersuchten WHO-II- und –III-Tumore zeigen eine Hochregulation vor allem von Faktoren des extrinsischen Apoptoseweges (z.B. TNFalpha). Die Expressionsraten von TNFalpha korrelieren signifikant mit dem WHO-Grad der untersuchten Tumore. Interessante therapeutische Optionen könnten hier zum einen die Aktivierung des extrinsischen Apoptoseweges über TNFalpha sein, zum anderen könnte man versuchen, eine direkte Aktivierung über modifizierte Effektor-Caspasen herbeizuführen. Insgesamt existieren verschiedene mögliche Angriffsorte innerhalb des apoptotischen Netzwerkes der Zelle für eine thepeutische Intervention bei Tumoren des zentralen Nervensystems. Die Komplexität des Kaskade-artigen Systems legt nahe, dass eine therapeutische Intervention möglichst an dessen Ende erfolgen sollte, um möglichst viele Stör- und Hemmfaktoren zu umgehen.
Die meisten nanopartikulären Ansätze im Bereich der Arzneiformenentwicklung befinden sich am Anfang der klinischen Evaluation, sodass das wirkliche Potenzial nanotechnologischer Produkte sich erst in den kommenden Jahren abzeichnen wird. Die Zusammenführung von „Drug-Targeting“ und „sustained release“ mit nanotechnologischer Entwicklung könnte in Zukunft zu einem Fortschritt in der Medizin beitragen. Auf dem Gebiet der Antisense-Oligonukleotid (ASO)-Therapie stellt der ASOTransfer in Zielzellen eine entscheidende Hürde dar. ASO benötigt, um im Körper an den Wirkort zu gelangen, einen zuverlässigen Träger, der vor dem Abbau in physiologischen Milieu schützt, den Transport über extra- und intrazelluläre Barrieren im Körper gewährleistet und die ASO zielgerichtet an den Wirkort bringt. Der Einbau von ASO in kolloidale Trägersysteme wie Nanopartikel vermittelt eine effiziente Aufnahme in Zellen bei gleichzeitigem Schutz vor abbauenden Enzymen im Körper. Des Weiteren kann eine gezielte Aufnahme in Zielzellen erreicht werden, die normalerweise nicht auftritt. Bisherige Trägersysteme bestanden meist aus Nanopartikeln von synthetischen Materialien, die entweder die ASO an der Oberfläche adsorbiert oder in der Partikelmatrix inkorporiert hatten. Als Trägermaterialien wurden oft Polyalkylcyanoacrylate verwendet. Sie sind aufgrund ihrer negativen Ladung und Hydrophobizität nicht geeignet ohne Zugabe von Hilfsstoffen, welche in höheren Konzentrationen toxisch wirken, anionische hydrophile Substanzen wie ASO zu adsorbieren. Außerdem besteht bei Nanopartikeln mit adsorbierten ASO die Gefahr, dass es bei einer intravenösen Gabe zu einer Desorption der ASO kommt und somit ASO die Zielzellen nicht in verpackter Form erreicht. Im Rahmen dieser Arbeit wurden NP auf Basis von humanem Serumalbumin (HSA) als Trägersystem für ASO entwickelt. Durch Oberflächenmodifikation dieser Trägersysteme wurde eine Kopplung von anti-HER2 Antikörper ermöglicht und ein AK-vermitteltes Drug-Targeting erreicht. HSA als natürliches Makromolekül zeichnet sich durch geringe Toxizität und gute Biodegradierbarkeit aus. Ein weiterer Vorteil besteht darin, dass ein Wirkstoff mit vorhandenen Bindungsstellen im HSA-Molekül Wechselwirkungen eingehen kann, was eine erfolgreiche Einbindung gewährleistet. Zusätzlich eignen sich aus HSA hergestellte NP aufgrund funktioneller Gruppen an der Partikeloberfläche für die Kopplung von Antikörpern und ermöglichen somit eine zielgerichtete Arzneistofftherapie. Die entwickelten Trägersysteme wurden hinsichtlich kolloidaler Parameter wie Teilchengröße, Oberflächenladung, ASOBeladungseffizienz, Stabilität in physiologischen Medium und ihrem Vermögen, einen ASO-Effekt zu erzielen, in Zellkultur evaluiert. 4.1 Optimierung der Beladung von NP mit ASO Zunächst wurden HSA-NP hergestellt, bei denen die Beladung durch Inkorporieren des ASO in die Partikelmatrix erfolgte. Die Evaluierung des Desolvatationsprozesses ergab eine Abhängigkeit der ASO-Beladung vom zugesetzten Desolvatationsmittel Ethanol. Eine Mindestmenge eines 1,8-fachen Überschusses an Ethanol ist für die vollständige Desolvatation des HSA und damit für die Einbindung des daran adsorbierten ASO erforderlich. Ebenso beeinflusste die Quervernetzung der Partikel die ASO-Beladungseffizienz. Je mehr Glutaraldehyd zugesetzt wurde, desto stabiler waren die NP. Nimmt die Menge des Glutaraldehyds von 40% auf 200% zu, löste sich um so weniger ASO während der Waschschritte aus der Partikelmatrix heraus. Jedoch hat das Ausmaß der Quervernetzung einen entscheidenden Einfluss auf die Biodegradierbarkeit des Partikelsystems. Zu stark quervernetzte NP (Quervernetzung von 200%) können von intrazellulären Enzymen nicht mehr abgebaut werden, infolge dessen gelangt das eingebundene ASO nicht zu seinem Wirkort ins Zytoplasma. Im Folgenden wurde versucht über die Einführung einer permanenten kationischen Ladung (EDC/Cholamin-Reaktion) im HSA-Molekül ein Trägerpolymer mit höherer Beladungskapazität im Vergleich zu nativem HSA zu etablieren. Ein geringer Anteil von kationisiertem HSA (cHSA) in der HSA-Partikelmatrix reichte aus, um die ASOBeladungseffizienz um ein 2,5-faches signifikant zu steigern. Das Ziel der Oberflächenmodifikation der HSA-NP war eine Positivierung des Zetapotentials, um die Bindung negativ geladener Wirkstoffe wie ASO über elektrostatische Wechselwirkungen zu ermöglichen. Die Umsetzung der HSA-NP mit EDC und Cholamin führte zu einer deutlichen Verschiebung des Zetapotentials von ca. –20,0 mV in den positiven Bereich (+38,6 mV). Durch die Inkubation mit ASO konnten so große Menge an ASO effizient an die Partikeloberfläche (NP+) gebunden werden. Ein Vergleich dieser Ergebnisse zeigte, dass die Beladung mit ASO in der Reihenfolge von Albumin-NP (HSA-NP) mit einer Beladungseffizienz von 7,6 µg ASO / mg NP zu Nanopartikeln, die in der Partikelmatrix inkorporierten Anteil an kationisiertem Albumin enthielten (cHSA-NP) mit 18,2 µg ASO / mg NP, zu Oberflächen-kationisierten Nanopartikeln (NP+) mit 100 µg ASO / mg NP signifikant zunahm. 4.2 Mit ASO-beladene NP in der Zellkultur HSA-NP wurden von allen verwendeten Brustkrebszell-Linien gut vertragen. Nach Zellaufnahme der HSA-NP wurden bei niedriger Quervernetzung (40%) die Partikel gut intrazellulär abgebaut und das ASO in das Zytoplasma freigesetzt. Es konnte im CLSM gezeigt werden, dass die ASO-Freisetzung innerhalb von 24 h zunahm. Alle Versuche mittels den entwickelten ASO-beladenen Trägersystemen einen Antisense Effekt nachzuweisen schlugen fehl. Da die Beladung der HSA-NP nicht weiter erhöht werden konnte, richtete sich ein neuer Ansatz auf eine verbesserte Aufnahme der NP über einen Rezeptor-vermittelten Mechanismus. 4.3 Antikörper-vermittelte Anreicherung von NP in Zielzellen Die Anwendung von monoklonalen Antikörpern mit einer Spezifität gegenüber Tumorzellen ist eine relativ neue und spannende Modalität in der Krebstherapie. Eine der vielversprechenden Zielstrukturen für eine solche Immunotherapie stellt der HER2-Membranrezeptor dar, dessen Überexpression mit einer schlechten Prognose assoziiert ist. HER2 ist ein Produkt des Proto-Onkogens erbB2, das für einen 185 kDa Transmembrantyrosinkinase Wachstumsfaktorrezeptor kodiert. Dieser Rezeptor ist in normalem Gewebe bei Erwachsenen nur geringfügig exprimiert [Press et al., 1990], aber ist bei ungefähr 30% der Patienten mit humanem Magenkarzinom, Lungen- und Brustkrebs überexprimiert. Gegenwärtig dient HER2 als Tumormarker für die zielgerichtete Behandlung mit dem humanisierten anti-HER2 AK Trastuzumab (Herceptin®) von Patientinnen bei metastasierendem Brustkrebs. Jedoch können bessere Ergebnisse erreicht werden, wenn Trastuzumab in Kombination mit anderen Zytostatika verabreicht wird. Antikörper haben bei alleiniger Gabe eine ausreichende Antitumoraktivität, aber sie können auch konjugiert mit Zytostatika sowie Toxinen und Radionukliden, genutzt werden, um diese zu den Tumoren bringen. Im Prinzip kann die Trägereigenschaft von Antikörpern gesteigert werden, wenn ein Antikörper an ein Arzneistoffreservoir, wie Nanopartikel oder Liposomen geknüpft ist. Der Vorteil dieses innovativen Ansatzes für eine zellspezifische Anreicherung im Vergleich zu herkömmlichen Biokonjugaten ist, dass eine höhere Arzneistoffträgerkapazität mit einer verbesserten Spezifität für eine zielgerichtete Pharmakotherapie kombiniert werden kann. Wegen seiner erhöhten Expression in Tumorzellen, seiner extrazellulären Verfügbarkeit und seiner Fähigkeit nach Antikörperbindung internalisiert zu werden, stellt HER2 eine geeignete Zielstruktur für die Tumortherapie mit zellspezifischen Nanopartikeln dar. Das Ziel dieser Arbeit war es, die Funktion Antikörpermodifizierter Protein-basierter Nanopartikel zu untersuchen und eine spezifische Aufnahme in HER2-überexprimierende Zell-Linien zu verbessern. Ein spezifisches Targeting wurde in verschiedenen Krebszell-Linien mit unterschiedlichen HER2- Expressionsleveln durch FACS-Analyse bewiesen. Die Versuche beinhalteten Inhibitionsexperimente durch Vorinkubation mit Trastuzumab, um die Selektivität der Bindungsstellen auf der Zelloberfläche zu unterstreichen. Die zelluläre Aufnahme dieser Nanopartikel, ebenso wie die zelluläre Verteilung, konnte im CLSM beobachtet werden. Diese ermutigenden Ergebnisse heben den potenziellen Wert Antikörper-modifizierter Nanopartikel für eine spezifische Anreicherung in Tumorzellen hervor. Anti-HER2-NP binden effizient an HER2-überexprimierende Zellen (85%) und werden anschließend internalisiert. Im Anschluss wurde die Beladung von ASO in HSA-NP mit den erhaltenen Erkenntnissen Antikörpermodifizierter HSA-NP kombiniert. Zunächst wurde die Freisetzung von farbmarkierten ASO aus AK-modifizierten HSA-NP in SK-Br-3- und MCF7-Zellen untersucht. Durch die spezifische Aufnahme der AK-modifizierten HSA-NP gelangt bereits innerhalb der ersten Stunde deutlich mehr ASO in die Zelle. Die Zellaufnahme und Freisetzung in das Zytosol der Zelle ist abhängig vom HER2- Protein auf der Zelloberfläche und nimmt über 24 h stark zu. SK-Br-3-Zellen reichern das farbmarkierte ASO stärker als die MCF7-Zellen an. Wirksame ASOKonzentrationen können in SK-Br-3-Zellen mit einer sehr geringen Partikelkonzentration von nur 50 µg anti-HER2-NP/ml erzielt werden, während in MCF7- Zellen eine weit aus höhere Partikelkonzentration notwendig ist. Da die HER2- überexprimierenden Zellen, die für einen Antisense-Testung zur Verfügung standen, sich nicht für den Nachweis eines Antisense-Effektes eigneten, konnte die entwickelte Kombination von ASO-beladenen AK-modifizierten Albumin- Nanopartikeln nicht weiter getestet werden. In Kombination mit einem in die Nanopartikel inkorporierten Arzneistoff wird eine wirksame intrazelluläre Arzneistoffabgabe erwartet. Die Anwendung Antikörpermodifizierter Nanopartikel kann Arzneistoff-Trägereigenschaften mit einer zielgerichteten Tumortherapie kombinieren. Diese neue Generation von immunospezifischen Nanopartikeln sollte auf jeden Fall noch weiter im Einzelnen untersucht werden, um die Wirksamkeit dieser Arzneistoffträgersysteme unter in vitro und in vivo Bedingungen zu belegen.