Refine
Year of publication
- 2002 (1268) (remove)
Document Type
- Article (514)
- Doctoral Thesis (190)
- Part of Periodical (117)
- Part of a Book (97)
- Review (88)
- Working Paper (83)
- Book (49)
- Preprint (47)
- Conference Proceeding (23)
- diplomthesis (22)
Language
- German (862)
- English (360)
- French (18)
- Portuguese (11)
- mis (5)
- Spanish (5)
- Multiple languages (3)
- Turkish (2)
- Italian (1)
- Polish (1)
Has Fulltext
- yes (1268) (remove)
Is part of the Bibliography
- no (1268) (remove)
Keywords
- Rezension (49)
- Deutschland (26)
- Literatur (20)
- Frankfurt <Main> / Universität (17)
- Frankfurt <Main> (15)
- Theater (14)
- Vormärz (14)
- Phonetik (12)
- Deutsch (11)
- Phonologie (11)
Institute
- Physik (85)
- Extern (71)
- Medizin (66)
- Rechtswissenschaft (48)
- Biochemie und Chemie (47)
- Wirtschaftswissenschaften (38)
- Biowissenschaften (32)
- Gesellschaftswissenschaften (31)
- Pharmazie (25)
- Informatik (22)
Die vorliegende Arbeit beschäftigt sich mit der Produktion positiv und negativ geladener Pionen im System Au+Au bei einer kinetischen Strahlenergie von 1,5 GeV pro Nukleon. Diese Daten wurden im Juli 1998 mit dem Kaonenspektrometer KaoS gemessen. Es liegen Pi-Minus-Spektren bei drei verschiedenen Laborwinkeln (Theta Lab = 40°, 48°, 60°) vor sowie Pi-Plus-Spektren bei fünf Laborwinkeln(Theta Lab = 32°, 40°, 48°, 60°, 71,5°). Die Spektren können als Funktion der Energie im Nukleon-Nukleon-Schwerpunktssystem mit der Summe zweier Boltzmannverteilungen beschrieben werden, deren Steigung sich ebenso wie der unter Annahme isotroper Emission im Schwerpunktssytem integrierte Wirkungsquerschnitt mit dem Laborwinkel ändert. Als mögliche Ursache dieses Verhaltens wird untersucht, ob eine polare Anisotropie der Emission vorliegt. Eine solche wurde in früheren Experimenten [49, 50] für die Pionenproduktion in Proton-Proton-Stößen gefunden und als Effekt der p-Wellen-Produktion von Pionen interpretiert, bei der als Zwischenschritt eine Resonanz, zumeist eine Delta-Resonanz, angeregt wird. Die Zerfallskinematik dieser Resonanzen bewirkt duch ihren Drehimpuls eine Winkelverteilung der emittierten Pionen [24]. In Kern-Kern-Stößen führt die Abschattung von Pionen durch nicht an der Reaktion teilnehmende Nukleonen zu einer zusätzlichen Richtungsabhängigkeit der Emission. Unter der Annahme, daß Energie- und Winkelabhängigkeit separierbar sind, wird in einem einfachen Modell der Winkelanteil des differentiellen Wirkungsquerschnitts als Funktion des Kosinus des Schwerpunktswinkels mit einer Parabelform beschrieben. Um den Anpassungsparameter a2, der die Stäke der Anisotropie quantifiziert, zu ermitteln, stehen zwei Methoden zur Verfügung, die simultane Anpassung der bei festem Laborwinkel gemessenen Spektren und der Vergleich mit einer durch Schnitte durch die Laborimpulsspektren erzeugten Verteilung bei Theta cm = 90°. Beide Verfahren ermitteln erfolgreich den Anisotropieparameter aus in einer Monte-Carlo-Simulation erzeugten Spektren mit parabelförmiger Winkelverteilung. Die mit beiden Methoden ermittelten a2-Werte stimmen für Pi+ wie für Pi- im Rahmen der Fehler überein. Die Winkelverteilung der Pi+ ist mit a2 = 0,7 +- 0,1 stärker ausgeprägt als die der Pi- mit a2 = 0,4 +- 0,1, beide werden bevorzugt unter Theta cm = 0° und Theta cm = 180° emittiert. Allerdings zeigt sich in beiden Methoden eine starke Abhängigkeit von der Phasenraumabdeckung der Daten und beide sind nicht geeignet, eine Abhängigkeit des Anisotropieparameters von der Pionenenergie zu ermitteln....
Um die Privatsphäre der Kinder und deren Eltern zu schützen, wurden die Fotos der Kinder aus dieser PDF-Datei entfernt. Interessierte Eltern oder Fachleute können die vollständige Arbeit als PDF-Datei (11 MB) zum Download bei http://www.leona-ev.de/piper/ oder chrispiper@freenet.de anfordern. Chromosomenstörungen gehören mit einer Häufigkeit von 1,8/1000 Neugeborene zu den häufigeren angeborenen Störungen. Die Mehrzahl der betroffenen Kinder stirbt bereits intrauterin in der Frühschwangerschaft, weil schon Nidation bzw. die frühe Embryonalentwicklung durch die Chromosomenstörung verhindert werden. Etwa 50% aller Spontanaborte sind durch eine Chromosomenstörung verursacht. Einige Chromosomenstörungen wie z.B. komplette Trisomie 14 oder 16 führen immer zu einem Abort, so daß keine die normale Schwangerschaft überlebenden Patienten bekannt sind. Bei den Trisomien 13 und 18 enden 95% der Schwangerschaften mit einem Abort, bei der häufigeren Trisomie 21 sterben 80% der Patienten intrauterin. Von den lebendgeborenen Kindern mit Chromosomenaberrationen sterben wiederum viele schon im ersten Lebensjahr, zumeist aufgrund schwerer Fehlbildungen, insbesondere Herzfehlern und Nierenfehlbildungen. Während der Phänotyp der häufigeren Chromosomenstörungen gut bekannt ist, gibt es bis auf die Trisomie 21 nur wenige Untersuchungen zu ihrem Verlauf. Systematische Daten zur psychomotorischen Entwicklung der Patienten, zu Komplikationen, zu möglichen Therapien sowie zur Effektivität der Therapien fehlen völlig. So wird auch heute noch in vielen Arztbriefen davon ausgegangen, daß Kinder mit Trisomie 13 oder 18 innerhalb der ersten Lebensmonate versterben und deshalb werden Therapien - wenn überhaupt - nur verzögert oder partiell eingeleitet. Darüber hinaus wird den Eltern durch die Prognose eines schnellen und frühen Todes ein Verlauf suggeriert, der im Einzelfall eben nicht eintreten muß. Die Beziehung zum Patienten, die Erwartungen an den Patienten sowie der Umgang mit dem Patienten, die gesamte Lebensplanung einer Familie und viele Dinge mehr werden dadurch in eine nicht gerechtfertigte Richtung gelenkt. Bei einigen Patienten führte falsche Voraussage eines „baldigen frühen Todes“ soweit, daß die Eltern und die Umgebung ständig darauf wartete, daß der Patient stirbt und die Diagnose von Eltern und Ärzten bezweifelt wurde als das Kind die ersten Lebensjahre überlebte. Mehrfach wurden deshalb Chromosomenanalysen wiederholt, um die Diagnose zu überprüfen. Gerade in unserer Zeit, in der die Intensivmedizin und die operativen Techniken auch Patienten mit komplexen Fehlbildungen ein Überleben ermöglichen, gibt es deshalb immer mehr Patienten mit Chromosomenstörungen, die ein höheres Lebensalter erreichen. Daraus folgt unmittelbar, daß mehr Daten über ältere Patienten mit Chromosomenstörungen gewonnen werden müssen, um bessere und individuellere Therapien zu entwickeln.
Die Gitterbasenreduktion hat in der algorithmischen Zahlentheorie und der Kryptologie bedeutende und praktisch relevante Anwendungen [Joux und Stern, 1998; Nguyen und Stern, 2000; Nguyen, 2001]. Ein wesentlicher Beitrag auf dem Gebiet der Gitter-Reduktionsalgorithmen ist der LLL-Algorithmus [Lenstra, Lenstra und Lov´asz, 1982] und auch die Beta-Reduktion (BKZ-Reduktion) von Gitterbasen [Schnorr, 1987, 1988, 1994] ist von großer Bedeutung. Bei Implementierungen dieser Algorithmen auf modernen Rechnerarchitekturen erfolgen viele Berechnungen aus Gründen der schnelleren Verarbeitungsgeschwindigkeit in Gleitpunktzahlen-Arithmetik. Aufgrund inhärenter Rundungsfehler kommt es dabei zu numerischen Instabilitäten. Vor [Koy und Schnorr, 2001b] gab es keine erfolgreichen Ansätze die bei der Gitterbasenreduktion auftretenden Rundungsfehler so zu kontrollieren, dass auch Gitterbasen in der Dimension >= 400 reduziert werden können. Diese Diplomarbeit beschäftigt sich mit den praktischen Aspekten der Gitterbasenreduktion in Segmenten. Dabei handelt es sich um die erstmalige Implementierung und experimentelle Evaluierung der folgenden beiden Verfahren: ....
Der Begriff Eurocomprehension steht für Europäische Interkomprehension in den drei großen Sprachengruppen Europas, der romanischen, slawischen und germanischen. Es geht der Eurocomprehension darum, unter EU-konformen sprachpolitischen Zielsetzungen Mehrsprachigkeit über den Einstieg in rezeptive Kompetenzen modularisiert zu erreichen. Dabei liefert die linguistische Interkomprehensionsforschung die interlingualen Transferbasen zur kognitiven Nutzung von Verwandtschaftsbeziehungen in Sprachgruppen, die eine Mehrsprachigkeitsdidaktik umsetzt. ...
Rezeptive Mehrsprachigkeit ist eine der jüngsten Forderungen der EU-Kommission zum Erreichen einer realistischen Mehrsprachigkeit in Europa. Die maximalistischen Forderungen nach Perfektion in allen sprachlichen Kompetenzen haben sich in den nationalen Unterrichtswesen als illusionär erwiesen, da diese nirgendwo von statistisch nachvollziehbarem Erfolg gekrönt sind. Die sprachliche Diversität im multilingualen Europa findet sich nicht in der Realität der Bildungssysteme wieder. Zwar verfügen heute europaweit 26 % der Europäer über eine zweite und 8% über eine dritte Fremdsprache, in den einzelnen Ländern sieht es jedoch oft desolat aus. Während in den kleineren Unionsländern kaum jemand als nur monolingual gilt (Luxemburg 2%) ist die Krankheit der Einsprachigkeit in den großen EU-Staaten seuchenhaft verbreitet, etwa Großbritannien mit 66%. Dies hat in den neunziger Jahren in der Kommission zu den Postulaten geführt, die sich die Forschergruppe EuroCom als Programm gesetzt hat, nämlich Mehrsprachigkeit über den Einstieg in rezeptive Kompetenzen modularisiert und kognitiv über Transferbasen innerhalb von Sprachfamilien zu erreichen. EuroCom steht dabei als Kürzel für Eurocomprehension, ein Akronym für Europäische Interkomprehension in den drei großen Sprachengruppen Europas, der romanischen, slawischen und germanischen. Die Beschränkung auf rezeptive Kompetenzen ist dabei nur ein methodisches Ausgangsprinzip, das es ermöglicht, Mehrsprachigkeit besonders schnell über das Leseverständnis zu erreichen und modularisiert auf Hörverständnis und aktive Sprechkompetenz sukzessiv auszuweiten. Die Methode EuroCom arbeitet über die Aktivierung intralingualen Wissens mit linguistischem Transfermaterial in nahverwandten Sprachen, das als kognitives Potential den Erschließungsprozess optimiert und in kürzester Zeit ein Lese- und Hörverstehen in einer ganzen Sprachenfamilie erreichbar macht. ...
Le concept d’eurocompréhension signifie intercompréhension dans les trois grands groupes linguistiques européens, à savoir les langues romanes, slaves et germaniques. Il s’agit, en respectant les objectifs1 de la politique linguistique de l’Union Européenne, de parvenir de façon modulaire au plurilinguisme par le biais de compétences réceptives. Dans ce cadre, les recherches linguistiques effectuées sur l’intercompréhension fournissent les bases de transfert interlangues pour l’exploitation cognitive de la parenté entre les langues des groupes différents. ...
Wissenschafts- und Kulturinstitutionen, Bibliotheken und Archive haben heute nicht nur neue Medien zu erwerben, sondern sie stehen auch vor der Aufgabe, das bereits vorhandene Kulturgut auf Dauer zu erhalten. Die Beseitigung von Schäden durch Papierzerfall ist hier nur ein Beispiel. Bei der Rettung historischen Kulturguts ist die Deutsche Forschungsgemeinschaft -neben anderen Institutionen - ein verlässlicher Partner. Ebenso wie beispielsweise die VW-Stiftung unterstützt sie zahlreiche Restaurierungs-, Sicherheitsverfilmungs- und Digitalisierungsvorhaben in den Bereichen Kultur und Wissenschaft. Ich möchte nunmehr versuchen, die Bedeutung der sog. Bestandserhaltung für unser kulturelles Gedächtnis durch sieben kurze Bemerkungen schlaglichtartig zu bestimmen: Diese Bemerkungen tragen die Überschriften: 1) Bibliotheken und Wissenschaft, 2) Bestandserhaltung hat heute Konjunktur, 3) Tontafeln, saure Bücher, Tonbänder und digitale Datenträger, 4) Einige praktische Aspekte des Bestandsschutzes beim traditionellen Buchgut, 5) Sicherheitsverfilmung und Digitalisierung in Archiven und Bibliotheken, 6) Bestandserhaltung, Marketing, Öffentlichkeitsarbeit und 7) Bestandserhaltung in der Wissenschaftsstadt Frankfurt und die "Aktion Notbuch" der Stadt- und Universitätsbibliothek Frankfurt a. M. Zum Artikel: Stand: Januar 2002
Homo Artificialis - Androiden und Cyborg-Konzepte am Beispiel der Science-Fiction-Serie Star Trek
(2002)
Der Untertitel „Androiden- und Cyborg-Konzepte“ weist bereits darauf hin, dass in dieser Arbeit zwei diametrale Richtungen der maschinellen Entwicklung aufgezeigt werden sollen. Zum einen ist es die Entwicklung des Roboters zum Androiden, also von der Maschine zur Menschenimitation hin, die andere Entwicklung ist die des Menschen zum Cyborg,bei der eine Technisierung des Menschen stattfindet. Diese zwei entgegengesetzten Richtungen,die sich aber auch in Form des Mensch-Maschine-Amalgams in Form des „Homo Artificialis“ überschneiden, gilt es in dieser Arbeit zu beobachten und zu analysieren. Die hierbei verwendete Methodik des ersten Teils richtet ihren Blick zunächst in die Vergangenheit und beobachtet in kurzer Form die Motivationen und die Entwicklung von künstlichem Leben. Anschließend richtet sich der Schwerpunkt auf den gegenwärtigen naturwissenschaftlichen und geisteswissenschaftlichen Forschungsstand der Robotik und der künstlichen Intelligenz. Da es so etwas wie einen menschlichen Androiden bis zum jetzigen Zeitpunkt noch nicht gibt, richtet sich der analytische Blick in dieser Arbeit auf die gegenwärtigen Entwicklungen, die eines Tages möglicherweise zu einer exakten mechanischen Version des organischen Menschen führen werden. Hierbei sollen Fragen der Maschinenintelligenz und des Maschinenbewusstseins untersucht werden: Ist Maschinenintelligenz oder sogar ein Maschinenbewusstsein möglich? Warum gibt es eine Grundangst vor der Mechanisierung und der Vermenschlichung der Technik? Was könnte passieren, wenn Roboter intelligenter würden als wir oder vielleicht Emotionen bekämen? Würden wir diese vielleicht emotional fühlenden Wesen versklaven oder würden wir durch Gesetze daran gehindert werden? Der Versuch, diese ethischen, philosophischen, kognitionswissenschaftlichen und medientheoretischen Fragen interdisziplinär zu diskutieren, schließlich den Blick auf eine mögliche Zukunft auszurichten und anhand einer Utopie diese Fragen zu untersuchen, soll der Schwerpunkt dieser Arbeit sein. Science Fiction beschreibt die Gegenwart als Vergangenheit vom Standpunkt einer möglichen Zukunft aus! Hierbei wird über mögliche Entwürfe spekuliert und von Tendenzen ausgegangen, die sich in der Gegenwart abzeichnen. Dabei werden insbesondere Errungenschaften der Technowissenschaften und deren futuristische Auswirkungen imaginiert und in ökonomische, soziale und kulturelle Zusammenhänge integriert. Insbesondere Star Trek stellt einen Schauplatz dafür dar, wie Identitäten oder Affinitäten einer möglichen Zukunft hinlänglich eines konstruierten Körpers aussehen könnten. Der zweite Teil dieser Arbeit ist den Cyborgs gewidmet. Ausgehend von einer Konstruktion des überaus komplexen Cyborg-Begriffs, wird dieser durch neuere Richtungen der Cyborg-Wissenschaften auch wieder dekonstruiert. Das spezielle Augenmerk wird, neben der Entwicklung durch Raumfahrt, Militär und Medizin, auf die der transhumanistischen und feministischen Anschauungen gerichtet sein, die den Cyborg-Begriff in neue Dimensionen transformieren. Letztendlich soll auch zu dem Thema dieser Mensch- und Maschine-Überkreuzungen die Perspektive der Science Fiction Serie Star Trek aufgezeigt werden.
Der vorliegende Bericht zur ‘Szenestudie 2002’ vermittelt eine aktuelle Situationsbeschreibung der offenen Drogenszene in Frankfurt am Main. Diese Studie zum Drogengebrauchsverhalten und Alltagsgeschehen auf der offenen Drogenszene versteht sich als eine Teilstudie im Rahmen eines komplexen Monitoringsystems (MoSyD _‘Monitoring-System Drogentrends’), welches in 2002 in der Stadt Frankfurt eingerichtet wurde, um zeitnah und umfassend neue Entwicklungen im Bereich des Konsums legaler wie illegaler Drogen verfolgen zu können (ausführlich: Kemmesies und Hess 2001). Die folgende Zusammenfassung gibt die zentralen Beobachtungen und Ergebnisse der Erhebung wieder. Diese Teilstudie vom MoSyD fokussiert auf den so genannten problematischen Kern des Drogenphänomens: Mit der Erscheinung offener Drogenszenen gehen vielfältige drogenpolitischen Herausforderungen einher. Diese beziehen sich sowohl auf sozial-medizinische wie strafrechtliche Aspekte, wie sie in den Stichworten Infektionskrankheiten, Beschaffungskriminalität, Deprivation, Verelendung et cetera geradezu greifbare Realität gewinnen. Aufgrund der enormen sozial-, gesundheits- wie ordnungspolitischen Herausforderungen und einer mitunter rasanten Veränderungsdynamik im mittelbaren und unmittelbaren Umfeld der offenen Drogenszene dokumentieren wir bereits hiermit - außerhalb des projektierten jährlichen Berichtsturnus vom MoSyD und zeitnah zur Interviewerhebung - unsere Beobachtungen. Im Vorgriff auf die konkreten Ergebnisse sei bereits angemerkt, dass sich die Situation offenbar innerhalb der letzten Jahre stark verändert hat: Wenn bisher eine offene Drogenszene in Deutschland in erster Linie mit dem klassischen Vorstellungsbild von einem intravenös Heroin konsumierenden ‘Junkie’ assoziiert war, so scheint diese Assoziation – zumindest mit Blick auf Frankfurt – die Realität nur noch äußerst gebrochen widerzuspiegeln. Denn Heroin hat seine dominierende Position auf dem Drogenschwarzmarkt verloren und an Kokain beziehungsweise dessen Derivat Crack abgegeben. Darüber hinaus hat sich der intravenöse Drogenkonsum insgesamt deutlich – um etwa die Hälfte – reduziert. Da systematisch vergleichbare Daten weit zurückreichen und erst aus dem Jahre 1995 vorliegen (Kemmesies 1995b), lässt sich nicht näher ergründen, wie es um die Dynamik der prozessualen Veränderungen bestellt ist: Befinden wir uns am Ende einer Entwicklung oder aber stecken wir mitten in einem grundsätzlichen Veränderungsprozess, innerhalb dessen sich das Bild der offenen Drogenszene grundlegend wandeln wird. Um einen besseren Einblick in die Veränderungsdynamik gewinnen zu können, schlagen wir vor, von dem ursprünglich im Rahmen vom MoSyD vorgesehenen zweijährigen Erhebungsturnus abzurücken und die Szenestudie bereits 2003 erneut durchzuführen. Ausgehend von zentralen Ergebnissen wäre näher zu ergründen, inwieweit der offensichtliche Trend einer Altersanhebung im Umfeld der offenen Drogenszene anhält, ob es zu einer fortschreitenden Ausweitung von kokain-/crackorientierten Drogengebrauchsmustern kommt, und inwieweit diese Entwicklungen sich im allgemeinen Gesundheitszustand der Drogenkonsumenten abbilden. Weiterhin wäre zu prüfen, ob die geplante Ausweitung der Substitutionsbehandlung in Gestalt des Heroinerprobungsprogramms sich auch auf das ‘typische’ Drogengebrauchsverhalten auf der offenen Drogenszene auswirkt.
In the last years, much effort went into the design of robust anaphor resolution algorithms. Many algorithms are based on antecedent filtering and preference strategies that are manually designed. Along a different line of research, corpus-based approaches have been investigated that employ machine-learning techniques for deriving strategies automatically. Since the knowledge-engineering effort for designing and optimizing the strategies is reduced, the latter approaches are considered particularly attractive. Since, however, the hand-coding of robust antecedent filtering strategies such as syntactic disjoint reference and agreement in person, number, and gender constitutes a once-for-all effort, the question arises whether at all they should be derived automatically. In this paper, it is investigated what might be gained by combining the best of two worlds: designing the universally valid antecedent filtering strategies manually, in a once-for-all fashion, and deriving the (potentially genre-specific) antecedent selection strategies automatically by applying machine-learning techniques. An anaphor resolution system ROSANA-ML, which follows this paradigm, is designed and implemented. Through a series of formal evaluations, it is shown that, while exhibiting additional advantages, ROSANAML reaches a performance level that compares with the performance of its manually designed ancestor ROSANA.
Elektronische (digitale) Zeitschriften spielen seit mehreren Jahren eine zunehmend wichtigere Rolle in der Informationsversorgung von Wissenschaft und Forschung. Während jedoch die Nutzungsformen sich so gut wie vollständig an den Standards des www mit all seinen Vorzügen orientieren, sind die Preisbildungsmechanismen noch stark an der Welt der gedruckten Zeitschriften orientiert. Sie unterliegen allerdings zur Zeit einem erheblichen Wandel, ohne dass erkennbar wäre, welche Preisstrukturen zukünftig den Markt bestimmen werden. Das seit November 2001 laufende DFG-Projekt "Perspektiven für den Bezug elektronischer Informationsressourcen in der Bundesrepublik Deutschland" hat sich zum Ziel gesetzt, die Marktsituation für elektronische Informationsversorgung im hochschulischen Bereich zu analysieren und davon ausgehend Perspektiven abzuleiten. In einer ersten Phase sollen zunächst die Nutzungsgewohnheiten seitens der Wissenschaftler und Studierenden untersucht werden. Die Ergebnisse werden in der vorliegenden Arbeit exemplarisch aufgezeigt, eine detaillierte Nutzungsanalyse wird zu einem späteren Zeitpunkt veröffentlicht.
We review the representation problem based on factoring and show that this problem gives rise to alternative solutions to a lot of cryptographic protocols in the literature. And, while the solutions so far usually either rely on the RSA problem or the intractability of factoring integers of a special form (e.g., Blum integers), the solutions here work with the most general factoring assumption. Protocols we discuss include identification schemes secure against parallel attacks, secure signatures, blind signatures and (non-malleable) commitments.
We show that non-interactive statistically-secret bit commitment cannot be constructed from arbitrary black-box one-to-one trapdoor functions and thus from general public-key cryptosystems. Reducing the problems of non-interactive crypto-computing, rerandomizable encryption, and non-interactive statistically-sender-private oblivious transfer and low-communication private information retrieval to such commitment schemes, it follows that these primitives are neither constructible from one-to-one trapdoor functions and public-key encryption in general. Furthermore, our separation sheds some light on statistical zeroknowledge proofs. There is an oracle relative to which one-to-one trapdoor functions and one-way permutations exist, while the class of promise problems with statistical zero-knowledge proofs collapses in P. This indicates that nontrivial problems with statistical zero-knowledge proofs require more than (trapdoor) one-wayness.
We present an efficient variant of LLL-reduction of lattice bases in the sense of Lenstra, Lenstra, Lov´asz [LLL82]. We organize LLL-reduction in segments of size k. Local LLL-reduction of segments is done using local coordinates of dimension 2k. Strong segment LLL-reduction yields bases of the same quality as LLL-reduction but the reduction is n-times faster for lattices of dimension n. We extend segment LLL-reduction to iterated subsegments. The resulting reduction algorithm runs in O(n3 log n) arithmetic steps for integer lattices of dimension n with basis vectors of length 2O(n), compared to O(n5) steps for LLL-reduction.
We show that P(n)*(P(n)) for p = 2 with its geometrically induced structure maps is not an Hopf algebroid because neither the augmentation Epsilon nor the coproduct Delta are multiplicative. As a consequence the algebra structure of P(n)*(P(n)) is slightly different from what was supposed to be the case. We give formulas for Epsilon(xy) and Delta(xy) and show that the inversion of the formal group of P(n) is induced by an antimultiplicative involution Xi : P(n) -> P(n). Some consequences for multiplicative and antimultiplicative automorphisms of K(n) for p = 2 are also discussed.
Der Malaria verursachende Organismus Plasmodium falciparum (P. falciparum) besitzt in seinem Kerngenom für die Mitochondrien bestimmte Proteine, die als Transportsignal ein mitochondriales Transitpeptid enthalten. Durch die kürzlich erfolgte Sequenzierung des Genoms von P. falciparum ist es wünschenswert, Vohersagealgorithmen für verschiedene Proteinlokalisationen zur Verfügung zu haben. Für andere Organismen etablierte Programme zur Vorhersage von mitochondrialen Transitpeptiden, MitoProtII und TargetP, lieferten bei Anwendung auf Sequenzen aus P. falciparum nur unbefriedigende Ergebnisse. MitoProtII erzielte in einer 20-fachen Kreuzvalidierung einen Mathews-Koeffizienten von cc = 0,49, TargetP erzielte in diesem Fall einen Mathews-Koeffizienten von cc = 0,60. TargetP erzielte für die Sequenzen aus P. falciparum nur eine Selektivität von 47%, MitoProtII nur eine Sensitivität von 35%. Dieser Ergebnisse haben die Entwicklung eines speziell auf P. falciparum trainierten Vorhersagemodells wünschenswert gemacht. Kerncodierte mitochondriale Precursorproteine aus P. falciparum wurden mit statistischen Methoden, Hauptkomponentenanalyse, selbstorganisierenden Karten und überwachten neuronalen Netzen analysiert und mit solchen aus anderen Organismen verglichen. Zwei Repräsentationen der Datensätze wurden gewählt, Aminosäurehäufigkeiten und 19 physikochemische Eigenschaften. Ein grundsätzlich unterschiedlicher Aminosäuregebrauch konnte festgestellt werden. Glycin, Alanin, Prolin und Arginin werden in P. falciparum mit weniger als 60% der Häufigkeit in der Swiss-Prot-Datenbank, Version 36, verwendet. Isoleucin, Tyrosin, Asparagin und Lysin werden hingegen mit mehr als 150% der Häufigkeit in der Referenzdatenbank verwendet. Diese Häufigkeitsmuster wurden, mit Variationen, auch in allen Targetingsequenzen beobachtet. In der Datenanalyse mittels Hauptkomponentenanalyse und selbstorganisierenden Karten ließen sich cytoplasmatische Proteine in beiden Repräsentationen klar von der Gruppe mitochondrialer, extrazellulärer und apicoplastischer Proteine trennen. Die Trennung innerhalb der zweiten Gruppe war weniger deutlich. Ein neuronales Netz (PlasMit) zur Vorhersage mitochondrialer Transitpeptide in P. falciparum wurde entwickelt. Basierend auf der relativen Aminosäurehäufigkeitsverteilung innerhalb der ersten 24 N-terminalen Aminosäuren lieferte es einen Mathews- Korrelationskoeffizienten von 0,74 (86% korrekt vorhergesagte Sequenzen) in einer 20fachen Kreuzvalidierung. Dieses Netz sagte 2449 (24%) der 10276 vorhergesagten Open Reading Frames aus dem Genom von P. falciparum als mögliche mitochondrial lokalisierte Proteine voraus. Ein Netz mit identischer Topologie wurde auf eine geringere Anzahl falsch-positiver Vorhersagen trainiert und erzielte einen Mathews-Koeffizienten von 0,51 (84% korrekte Vorhersagen) in einer 10fachen Kreuzvalidierung. Dieses Netz sagte 903 (8,8%) potentielle mitochondriale Precursorproteine unter den 10276 vorhergesagten Open Reading Frames voraus. Sämtliche Trainingsdatensätze, die Open Reading Frames des Genoms von P. falciparum, sowie das Netz, das den höchsten Mathews-Koeffizienten erzielt hat, sind per Web unter http://www.modlab.de, Menüpunkt PlasMit, erreichbar.
Die vorliegende Arbeit beschäftigt sich mit der Ermittlung des Preises von Optionen. Optionen sind spezielle Derivate, die wiederum Hull in seinem Buch definiert als: Ein Derivat ist ein Finanzinstrument, dessen Wert von einem anderen, einfacheren zu Grunde liegenden Finanzinstrument (underlying) abhängt . Ein underlying kann unter anderem auch eine Anleihe, eine Aktie oder der Umtauschkurs zweier Währungen sein....
In der vorliegenden Arbeit werden Aspekte autonomer und nichtautonomer dynamischer Systeme behandelt, wobei Attraktoren und verwandte Objekte eine wichtige Rolle spielen werden. Zunächst findet man in einem Kapitel über dynamische Systeme die Definition der grundlegenden Begriffe Attraktor, Repeller und Schiefproduktfluss, gefolgt von zwei hinreichenden Bedingungen für die Existenz von Attraktoren. Mit den Attraktoren und Repellern können dann im nächsten Kapitel Morsemengen eingeführt werden. Dadurch kann das Verhalten eines dynamischen Systems qualitativ beschrieben werden. Des weiteren wird auf die Bedeutung der Kettenrekurrenzmenge für die Morsemengen eingegangen. Im Kapitel über Kontrolltheorie wird, nach einer kurzen Einführung in dieses Gebiet, gezeigt, dass der dort definierte Lift einer Kettenkontrollmenge unter gewissen Voraussetzungen eine Morsemenge ist. Im letzten Kapitel geht es um Pullback-Attraktoren, die unter den angegebenen Bedingungen als Attraktoren für den Schiefproduktfluss interpretiert werden können.
Background: The cosmopolitan moon jelly Aurelia is characterized by high degrees of morphological and ecological plasticity, and subsequently by an unclear taxonomic status. The latter has been revised repeatedly over the last century, dividing the genus Aurelia in as many as 12 or as little as two species. We used molecular data and phenotypic traits to unravel speciation processes and phylogeographic patterns in Aurelia.
Results: Mitochondrial and nuclear DNA data (16S and ITS-1/5.8S rDNA) from 66 world-wide sampled specimens reveal star-like tree topologies, unambiguously differentiating 7 (mtDNA) and 8 (ncDNA) genetic entities with sequence divergences ranging from 7.8 to 14% (mtDNA) and 5 to 32% (ncDNA), respectively. Phylogenetic patterns strongly suggest historic speciation events and the reconstruction of at least 7 different species within Aurelia. Both genetic divergences and life history traits showed associations to environmental factors, suggesting ecological differentiation forced by divergent selection. Hybridization and introgression between Aurelia lineages likely occurred due to secondary contacts, which, however, did not disrupt the unambiguousness of genetic separation.
Conclusions: Our findings recommend Aurelia as a model system for using the combined power of organismic, ecological, and molecular data to unravel speciation processes in cosmopolitan marine organisms.
© 2002 Schroth et al; licensee BioMed Central Ltd. Verbatim copying and redistribution of this article are permitted in any medium for any non-commercial purpose, provided this notice is preserved along with the article's original URL: http://www.biomedcentral.com/1471-2148/2/1
Staatsexamensarbeit 2002. In der nachfolgenden Arbeit werde ich im zweiten Kapitel theoretisch fraktionale Ableitungen vorstellen, um dann im dritten Kapitel praktisch mit MAPLE fraktionale Ableitungen zu veranschaulichen. Genauso werde ich auch das Gebiet der fraktionalen Differentialgleichungen einführen, d.h. zuerst wird ein theoretischer Teil über Lösungsmethoden behandelt und darauf folgend ein praktischer Teil, in dem mittels MAPLE diverse Gleichungen gelöst werden. Das zweite Dokument enthält MAPLE Programme aus der Arbeit (ZIP-Format, 145154 Bytes).
We reconsider estimates for the heat kernel on weighted graphs recently found by Metzger and Stollmann. In the case that the weights satisfy a positive lower bound as well as a finite upper bound, we obtain a specialized lower estimate and a proper generalization of a previous upper estimate. Reviews: Math. Rev. 1979406, Zbl. Math. 0934.46042
The dynamical quantum Zeno effect is studied in the context of von Neumann algebras. It is shown that the Zeno dynamics coincides with the modular dynamics of a localized subalgebra. This relates the modular operator of that subalgebra to the modular operator of the original algebra by a variant of the Kato-Lie-Trotter product formula.
This extended write-up of a talk gives an introductory survey of mathematical problems of the quantization of gauge systems. Using the Schwinger model as an exactly tractable but nontrivial example which exhibits general features of gauge quantum field theory, I cover the following subjects: The axiomatics of quantum field theory, formulation of quantum field theory in terms of Wightman functions, reconstruction of the state space, the local formulation of gauge theories, indefiniteness of the Wightman functions in general and in the special case of the Schwinger model, the state space of the Schwinger model, special features of the model. New results are contained in the Mathematical Appendix, where I consider in an abstract setting the Pontrjagin space structure of a special class of indefinite inner product spaces - the so called quasi-positive ones. This is motivated by the indefinite inner product space structure appearing in the above context and generalizes results of Morchio and Strocchi [J. Math. Phys. 31 (1990) 1467], and Dubin and Tarski [J. Math. Phys. 7 (1966) 574]. See the corresponding paper: Schmidt, Andreas U.: "Infinite Infrared Regularization and a State Space for the Heisenberg Algebra" and the presentation "Infinite Infrared Regularization in Krein Spaces".
Das Ziel dieser Arbeit war die Entwicklung einer haptischen 3D-Benutzungsoberfläche für die Virtual-Glove-Box. Eine „Glove Box“ ist ein Apparat, in welchem chemische Versuche in abgeschlossener Atmosphäre durchgeführt werden können. Die „Virtual Glove Box“ setzt dieses Konzept für Virtual Reality Anwendungen um. Die Oberflächenelemente waren als wiederverwendbare Komponenten auszuführen. Die Bedienung erfolgt unter Einsatz zweier virtueller Hände mit an den Händen getragenen Exoskeletten zur Vermittlung des haptischen Feedbacks. Es enstand EASY, ein System zur einfachen und individuellen Gestaltung von Benutzungsberflächenelementen. Diese können in ein bereitgestelltes Framework einfügt und ohne Wissen über die zugrundeliegende Hardware benutzt werden. Die Entwicklung konnte nicht abgeschlossen werden, da die zur Verfügung stehenden Hardware-Komponenten nicht in Betrieb zu nehmen waren.
Syndicated loans and the number of lending relationships have raised growing attention. All other terms being equal (e.g. seniority), syndicated loans provide larger payments (in basis points) to lenders funding larger amounts. The paper explores empirically the motivation for such a price discrimination on sovereign syndicated loans in the period 1990-1997. First evidence suggests larger premia are associated with renegotiation prospects. This is consistent with the hypothesis that price discrimination is aimed at reducing the number of lenders and thus the expected renegotiation costs. However, larger payment discrimination is also associated with more targeted market segments and with larger loans, thus minimising borrowing costs and/or attempting to widen the circle of lending relationships in order to successfully raise the requested amount. JEL Classification: F34, G21, G33 This version: June, 2002. Later version (october 2003) with the title: "Why Borrowers Pay Premiums to Larger Lenders: Empirical Evidence from Sovereign Syndicated Loans" : http://publikationen.ub.uni-frankfurt.de/volltexte/2005/992/
A number of recent studies have suggested that activist stabilization policy rules responding to inflation and the output gap can attain simultaneously a low and stable rate of inflation as well as a high degree of economic stability. The foremost example of such a strategy is the policy rule proposed by Taylor (1993). In this paper, I demonstrate that the policy settings that would have been suggested by this rule during the 1970s, based on real-time data published by the U.S. Commerce Department, do not greatly differ from actual policy during this period. To the extent macroeconomic outcomes during this period are considered unfavorable, this raises questions regarding the usefulness of this strategy for monetary policy. To the extent the Taylor rule is believed to provide a reasonable guide to monetary policy, this finding raises questions regarding earlier critiques of monetary policy during the 1970s.
Ambivalence in the regulatory definition of capital adequacy for credit risk has recently stirred the financial services industry to collateral loan obligations (CLOs) as an important balance sheet management tool. CLOs represent a specialised form of Asset-Backed Securitisation (ABS), with investors acquiring a structured claim on the interest proceeds generated from a portfolio of bank loans in the form of tranches with different seniority. By way of modelling Merton-type risk-neutral asset returns of contingent claims on a multi-asset portfolio of corporate loans in a CLO transaction, we analyse the optimal design of loan securitisation from the perspective of credit risk in potential collateral default. We propose a pricing model that draws on a careful simulation of expected loan loss based on parametric bootstrapping through extreme value theory (EVT). The analysis illustrates the dichotomous effect of loss cascading, as the most junior tranche of CLO transactions exhibits a distinctly different default tolerance compared to the remaining tranches. By solving the puzzling question of properly pricing the risk premium for expected credit loss, we explain the rationale of first loss retention as credit risk cover on the basis of our simulation results for pricing purposes under the impact of asymmetric information. Klassifikation: C15, C22, D82, F34, G13, G18, G20
The following descriptive paper surveys the various types of loan securitisation and provides a working definition of so-called collateralised loan obligations (CLOs). Free of the common rhetoric and slogans, which sometimes substitute for understanding of the complex nature of structured finance, this paper describes the theoretical foundations of this specialised form of loan securitisation. Not only the distinctive properties of CLOs, but also the information economics inherent in the transfer of credit risk will be considered, so that we can equally privilege the critical aspects of security design in the structuring of CLO transactions.
In this paper we assess the implications of sunk costs and product differentiation on the pricing decisions of the multinational firms. For this purpose we use a modified version of Salop's spatial competition. The model yields clear-cut predictions regarding the effects of exchange rate shocks on the market structure and on pass-through. The main results are following: shocks within the band of inaction do not affect market structure. The upper bound of this range rises as the industry ratio of sunk- to fixed costs increases. As fixed costs and product heterogeneity jointly increase, the lower bound drops. Outside of the range, depreciations cause one or several of those foreign brands closest to the home brand to leave. This decreases the overall responsiveness of prices to exchange rate shocks. Large appreciations induce entry and increase the elasticity of prices. This asymmetry implies larger positive than negative PPP deviations. When accounting for price changes in foreign markets, strategic pricing behaviour is no longer sufficient to generate real exchange rate variability. Incomplete pass-through obtains if and only if the domestic firms have a smaller market share abroad. With large nominal exchange rate shocks a hysteresis result obtains if and only if sunk costs are non-zero. Klassifikation: C33, E31
Since the second half of the nineties the euro area has been subject to a considerable accumulation of temporary and idiosyncratic price shocks. Core inflation indicators for the euro area are thus of utmost interest. Based on euro area-wide data core inflation in this paper is analyzed by means of an indicator derived from the generalized dynamic factor model. This indicator reveals that HICP inflation strongly exaggerated both the decline as well as the increase in the price trend in 1999 and 2000/2001. Our results reinforce those achieved by Cristadoro, Forni, Reichlin and Versonese (2001) based on euro area country data which indicates the robustness of the indicator. Klassifikation: C33, E31
Both unconditional mixed-normal distributions and GARCH models with fat-tailed conditional distributions have been employed for modeling financial return data. We consider a mixed-normal distribution coupled with a GARCH-type structure which allows for conditional variance in each of the components as well as dynamic feedback between the components. Special cases and relationships with previously proposed specifications are discussed and stationarity conditions are derived. An empirical application to NASDAQ-index data indicates the appropriateness of the model class and illustrates that the approach can generate a plausible disaggregation of the conditional variance process, in which the components' volatility dynamics have a clearly distinct behavior that is, for example, compatible with the well-known leverage effect. Klassifikation: C22, C51, G10
In this paper, we present a monetary policy game in which the central bank has a private forecast of supply and demand shocks. The public needs to form its inflationary expectations and can make use of central bank announcements. However, because of the credibility problem that the central bank faces, the public will not believe a precise announcement. By extending the arrangement proposed by Garfinkel and Oh (1995) to a model that includes private information about both demand and supply shocks, we investigate the feasibility of making imprecise credible announcements concerning the rate of inflation. Klassifikation:E52;E58
This paper investigates the financial contracting behavior of German venture capitalists against the results of recent theoretical work on the design of venture capital contracts, especially with regard to the use of convertible securities. First, we identify a special feature of the German market, namely that public-private partnership agencies require significantly lower returns than private and young venture capitalists. The latter are most likely to follow their North-American counterpart by refinancing themselves with closed-end funds. Second, with regard to financing practices it is shown that the use of convertibles, relative to other instruments, is influenced by the anticipated severity of agency problems. Klassifikation: C24; G24; G32
We analyze the desinvestment decision of venture capitalists in the course of an IPO of their portfolio firms. The capital market learns of the project quality only in the period following the IPO. Venture capitalists with high-quality firms face a trade-off between immediately selling their stake in the venture at a price below the true value and having to wait until the true value is revealed. We show that the dilemma may be resolved via a reputation-acquiring mechanism in a repeated game set-up. Thereby, we can explain, e.g., the advent of "hot-issue market behavior" involving early disinvestments and a high degree of price uncertainty. Furthermore, we provide a new rationale for underpricing. Young venture capitalists may use underpricing as a device for credibly committing themselves to acquiring reputation.
Deutsche Börse AG plans to introduce a system (Xetra Best) allowing brokers and broker-dealers to internalize the orders of retail customers. Further, Xetra Best supports payment for order flow arrangements. Both internalization and payment for order flow may be detrimental to market quality. This paper discusses advantages and disadvantages of these arrangements. It draws on experiences made in the US. We derive policy implications that aim at a more stringent interpretation of "best execution", and at higher transparency. Klassifikation: G10, G14
Within a two step GARCH framework we estimate the time-varying spillover effects from European and US return innovations to 10 economic sectors within the euro area, the United States, and the United Kingdom. We use daily data from January 1988 - March 2002. At the beginning of our sample sectors in all three currency areas/blocks formed a quite homogeneous group exhibiting only minor sector-specific characteristics. However, over time sectors became more heterogeneous, that is the response to aggregate shocks increasingly varies across sectors. This provides evidence that sector-specific effects gained in importance. European industries show increased heterogeneity simultaneously with the start of the European Monetary Union, whereas in the US this trend started in the early 1990's. Information technology and non-cyclical services (including telecommunication services) became the most integrated sectors worldwide, which are most affected by aggregate European and US shocks. On the other hand, basic industries, non-cyclical consumer goods, resources, and utilities became less affected by aggregate shocks. Volatility spillovers proved to be small and volatile. JEL_Klassifikation: G1, F36
Forecasting stock market volatility and the informational efficiency of the DAX-index options market
(2002)
Alternative strategies for predicting stock market volatility are examined. In out-of-sample forecasting experiments implied-volatility information, derived from contemporaneously observed option prices or history-based volatility predictors, such as GARCH models, are investigated, to determine if they are more appropriate for predicting future return volatility. Employing German DAX-index return data it is found that past returns do not contain useful information beyond the volatility expectations already reflected in option prices. This supports the efficient market hypothesis for the DAX-index options market.
Money-back guarantees in individual pension accounts : evidence from the German pension reform
(2002)
The German Retirement Saving Act instituted a new funded system of supplementary pensions coupled with a general reduction in the level of state pay-as-you-go old-age pensions. In order to qualify for tax relief, the providers of supplementary savings products must offer a guarantee of the nominal value at retirement of contributions paid into these saving accounts. This paper explores how this "money-back" guarantee works and evaluates alternative designs for guarantee structures, including a life cycle model (dynamic asset allocation), a plan with a pre-specified blend of equity and bond investments (static asset allocation), and some type of portfolio insurance. We use a simulation methodology to compare hedging effectiveness and hedging costs associated with the provision of the money-back guarantee. In addition, the guarantee has important implications for regulators who must find an appropriate solvency system for such saving schemes. This version June 17, 2002 . Klassifikation: G11, G23, G28
Die vorliegende empirische Studie analysiert die Vertragsgestaltung zwischen Investoren und europäischen Venture Capital-Fonds. Im Zentrum steht die Analyse der Vergütung des Fondsmanagements sowie der zum Einsatz kommenden Vertragsklauseln. Deren Ausgestaltung ist entscheidend für die Überwindung der Prinzipal-Agenten-Beziehung innewohnenden Agency-Probleme. Hierzu werden 122 Fondsprospekte sowie 46 Gesellschafterverträge von europäischen Venture Capital-Fonds ausgewertet, die in den Jahren 1996 bis 2001, der ersten großen Boomphase des europäischen Venture Capital-Marktes, aufgelegt wurden. Während die jährliche Vergütung des Fondsmanagements auf den ersten Blick sehr standardisiert erscheint, ergeben sich bei einer Barwertbetrachtung aller zu leistenden Management Fees über die gesamte Fondslaufzeit deutliche Anzeichen für Preisdifferenzierung. In Bezug auf den Einsatz von Vertragsklauseln kann eine Zunahme im Zeitablauf und mithin eine zunehmende Komplexität des Vertragsdesigns festgestellt werden. Vor dem Hintergrund der Erfahrungen aus dem US-amerikanischen Venture Capital-Markt kann diese Entwicklung jedoch noch nicht als abgeschlossen gelten. Der europäische Markt bewegt sich in Bezug auf die Verwendung vertraglicher Restriktionen auf dem Niveau, das in den USA bereits Anfang der neunziger Jahre erreicht war.
Against the difficult background of analysing aggregated data in this paper core inflation in the euro area is estimated by means of the structural vector autoregressive approach. We demonstrate that the HICP sometimes seems to be a misleading indicator for monetary policy in the euro area. We furthermore compare our core inflation measure to the wide-spread "ex food and energy" measure, often referred to by the ECB. In addition we provide evidence that our measure is a coincident indicator of HICP inflation. Assessing the robustness of our core inflation measure we carefully conclude that it seems to be quite reliable. This Version: April, 2002 Revised edition published in: Allgemeinenes Statistisches Archiv, Vol 87, 2003. Klassifikation: C32, E31
In nur wenigen Jahren wird die Euopäische Union um eine Gruppe osteuropäischer Staaten erweitert werden. Diese Erweiterung birgt Chancen und Risiken. Die Chancen liegen unter anderem in der Erweiterung der Märkte und gegenseitigen Handelsbeziehungen. Voraussetzung hierfür ist allerdings gegenseitiges Verständnis im doppelten Sinn dieses Wortes. Wenn die Menschen sich nicht verstehen, werden auch neue Möglichkeiten nicht genutzt werden können, wenn die Wirtschaft nicht die richtige Sprache findet, kann sie nichts verkaufen. Für alle wirtschaftlichen, kulturellen und gesellschaftlichen Bereiche ist eine funktionierende verbale Kommunikation unerläßlich. Wie viel mehr gilt dies für grenzüberschreitende Beziehungen. Die Erweiterung der EU wird nur dann in eine Integration der neuen Kandidaten münden können, wenn die Verständigung zwischen allen Beteiligten gesichert ist. In dem vorliegenden Bändchen weisen die Autoren nach, dass nur durch Sprachkultur und eine einschlägige Forschung, die auch die kulturspezifischen Konnationen mit berücksichtigt, eine interkulturelle Sprachkompetenz erworben werden kann. In der Sprachenvielfalt eines vereinten Europa wird eine solche Kompetenz mehr denn je gefragt sein. Welche Wege uns diesem Ziel näher bringen und welche Möglichkeiten die deutsche Sprache hat, der wachsenden Sprachkonkurrenz international zu begegnen, das ist die Fragestellung der hier publizierten Studien, die dazu eine Fülle von Vorschlägen, Empfehlungen und Anregungen beisteuern. Die Arbeiten sind Ergebnisse des forost-Projektes "Sprachkultur und Sprachkultivierung in Osteuropa – ein paradigmatischer Vergleich", das sich innerhalb der Gruppe III des Forschungsverbundes "Nationale Identität, ethnischer Pluralismus und internationale Beziehungen" dieser Thematik gewidmet hat.
Barriere Sprachkompetenz : Dokumentation zur Impulstagung vom 2. November 2001 im Volkshaus Zürich
(2002)
Lavater was admired and detested for his unconventional approach to theology and his rediscovery of physiognomy. He was an avid communicator and through his correspondence became known to almost all leading personalities of eighteenth century Europe, such as Goethe, Wieland and Rousseau. The more than 21,000 letters in Lavater's estate in the Zentralbibliothek Zürich display the enormous thematic variety produced during a remarkable forty years of correspondence. This unique source material is now being published for the first time. IDC Publishers makes this collection available for research to such various disciplines as theology, history, literature, arts, humanities and above all, the history of eighteenth century culture. Scope: * 9,121 letters from Lavater * 12,302 letters to Lavater * 1,850 correspondents
Um zu sehen, was im atomaren Bereich "die Welt im Innersten zusammenhält", werden seit fast einem Jahrhundert atomphysikalische Stoßexperimente durchgeführt. Es ist also möglich, durch den Beschuß von "Targetteilchen" mit "Projektilteilchen" Aussagen über verschiedene Größen in der atomaren Welt zu treffen. Hierbei werden nicht nur Eigenschaften wie der "Durchmesser" oder eine "Ladungsverteilung" eines Atoms untersuchbar, sondern - durch entsprechend geschickte Variation des Prinzips "Stoßexperiment" - auch Größen, die ein Laie niemals mit einem Stoß zwischen zwei Teilchen in Verbindung brächte. Moderne Experimente erlauben es inzwischen zum Beispiel, selektiv die Impulsverteilung einzelner Elektronen in Atomen und Molekülen sichtbar zu machen, indem diese durch Photonen entsprechender Energie aus dem zu untersuchenden Teilchen herausgerissen werden. Besagte Experimente stellen nicht nur hohe Anforderungen an die Nachweiseinheit, die den eigentlichen Prozeß sichtbar macht, sondern auch an das verwendete Target und das Projektil. Im Bereich der atomaren Grundlagenforschung bietet sich Helium als zu untersuchendes Objekt oftmals an. Um die Natur zu verstehen, ist es nötig, gemessene Größen mit einer Theorie, die den untersuchten Vorgang beschreiben soll, zu vergleichen. Im Bereich der theoretischen Physik kann bisher nur das Wasserstoffatom, das ein sog. "Zweikörperproblem" ist, ohne Näherungsverfahren vollständig beschrieben werden. Ein Heliumatom stellt also das "einfachste" atomare System dar, das als noch nicht "komplett verstanden" gilt. Genauso ist ein Heliumatom mit seinem Atomkern und seinen zwei Elektronen das erste "Mehrelektronensystem" im Periodensystem. Es können hier also im Vergleich zu Wasserstoff auch Korrelationseffekte zwischen Elektronen untersucht werden. Die gesamte Dynamik innerhalb des Atoms erhält einen anderen Charakter. Bisherige Experimente mit Helium innerhalb unserer Arbeitsgruppe haben allerdings eine prinzipielle Beschränkung: es ist im Allgemeinen sehr schwierig, den Spin der beteiligten Elektronen im Experiment nachzuweisen, so daß alle bisherigen Messungen immer die Einstellung der Elektronenspins nicht berücksichtigen. Es wird also über den Spin gemittelt gemessen. Ein Weg, dieses Problem zu umgehen, ist, neben einer wirklichen Messung des Spins, den Spin im Anfangszustand - also vor dem Streuexperiment - zu kennen. Dies geschieht in der vorliegenden Arbeit dadurch, daß Heliumatome in einem durch "Mikrostrukturelektroden" erzeugten Mikroplasma angeregt werden, und sich so die Spins ihrer beiden Elektronen zum Teil auch parallel zueinander einstellen. Während bisherige Ansätze das Prinzip verfolgen, die angeregten Heliumatome in Niederdruckplasmen bei einigen Millibar zu erzeugen, wird die Plasmaquelle in dieser Arbeit bei Drücken von bis zu einem Bar betrieben. Dadurch kann das Prinzip des "supersonic jets" ausgenutzt werden, so daß der hier erzeugte Atomstrahl eine interne Temperatur von einigen Millikelvin und eine mittlere Geschwindigkeit von 1000 m/s besitzt. Durch einen nur 10 cm langen Separationsmagneten werden die angeregten Zustände mit Spin (#; #) von den Zuständen mit Spin ("; ") und den nicht- angeregten Heliumatomen getrennt und in einem Fokuspunkt für ein Streuexperiment zur Verfügung gestellt. In der folgenden Arbeit wird also ein sehr kompakter Aufbau eines Gastargets aus angeregtem Helium mit polarisiertem Elektronenspin vorgestellt. Ein Target aus angeregtem Helium hat außerdem einen weiteren großen Vorteil gegenüber gewöhnlichen Heliumtargets. In der modernen experimentellen Physik werden oftmals Laser zur Manipulation von Atomen eingesetzt. So ist es möglich, durch gezielte Anregung eines Atoms mit einem Laser dieses zum Beispiel extrem zu kühlen. Hierzu müssen allerdings Anregungsniveaus im Atom zur Verfügung stehen, die mit den Wellenlängen heutiger Laser erreicht werden können. Das erste Anregungsniveau von Helium liegt jedoch mit 19.8 eV deutlich zu hoch. Der nächst höhere P-Zustand ist von diesem Niveau aber nur noch ca. 1.1 eV entfernt. Photonen dieser Energie können leicht mit Lasern erzeugt werden. Angeregtes Helium ist also durch Laser manipulierbar und liefert so zum Beipiel auch den Ausgangspunkt für die Bose-Einstein Kondensation von Helium.