Universitätspublikationen
Refine
Year of publication
Document Type
- Article (13523)
- Part of Periodical (3472)
- Doctoral Thesis (3304)
- Contribution to a Periodical (2163)
- Book (2063)
- Working Paper (1886)
- Preprint (1572)
- Review (1063)
- Report (909)
- Conference Proceeding (693)
Language
- English (17101)
- German (13875)
- Portuguese (231)
- Spanish (123)
- Italian (66)
- French (64)
- Multiple languages (59)
- Turkish (12)
- Ukrainian (10)
- slo (7)
Keywords
- Deutschland (132)
- COVID-19 (95)
- inflammation (93)
- Financial Institutions (90)
- ECB (67)
- Capital Markets Union (65)
- SARS-CoV-2 (63)
- Financial Markets (61)
- Adorno (58)
- Banking Union (50)
Institute
- Medizin (6589)
- Präsidium (5087)
- Physik (3413)
- Wirtschaftswissenschaften (2286)
- Gesellschaftswissenschaften (2016)
- Biowissenschaften (1753)
- Frankfurt Institute for Advanced Studies (FIAS) (1581)
- Biochemie und Chemie (1397)
- Sustainable Architecture for Finance in Europe (SAFE) (1391)
- Informatik (1380)
- Center for Financial Studies (CFS) (1262)
- Rechtswissenschaft (1059)
- Neuere Philologien (817)
- House of Finance (HoF) (803)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (734)
- Geschichtswissenschaften (726)
- Geowissenschaften (684)
- Biochemie, Chemie und Pharmazie (665)
- Philosophie (570)
- Kulturwissenschaften (531)
- Psychologie (480)
- E-Finance Lab e.V. (436)
- Institut für Ökologie, Evolution und Diversität (400)
- Institut für Sozialforschung (IFS) (394)
- Senckenbergische Naturforschende Gesellschaft (385)
- Erziehungswissenschaften (374)
- Universitätsbibliothek (369)
- Institut für Wirtschaft, Arbeit, und Kultur (IWAK) (368)
- Pharmazie (335)
- Sprach- und Kulturwissenschaften (298)
- Biodiversität und Klima Forschungszentrum (BiK-F) (291)
- Evangelische Theologie (271)
- Geographie (241)
- Sportwissenschaften (217)
- Psychologie und Sportwissenschaften (216)
- Geowissenschaften / Geographie (207)
- Institute for Monetary and Financial Stability (IMFS) (204)
- Informatik und Mathematik (202)
- Institut für sozial-ökologische Forschung (ISOE) (197)
- Mathematik (192)
- Exzellenzcluster Makromolekulare Komplexe (173)
- MPI für Biophysik (165)
- Sprachwissenschaften (159)
- MPI für Hirnforschung (132)
- Georg-Speyer-Haus (130)
- Sonderforschungsbereiche / Forschungskollegs (126)
- Buchmann Institut für Molekulare Lebenswissenschaften (BMLS) (106)
- Zentrum für Biomolekulare Magnetische Resonanz (BMRZ) (105)
- Ernst Strüngmann Institut (94)
- Zentrum für Arzneimittelforschung, Entwicklung und Sicherheit (ZAFES) (93)
- Philosophie und Geschichtswissenschaften (76)
- Institute for Law and Finance (ILF) (68)
- Cornelia Goethe Centrum für Frauenstudien und die Erforschung der Geschlechterverhältnisse (CGC) (59)
- Katholische Theologie (56)
- Deutsches Institut für Internationale Pädagogische Forschung (DIPF) (55)
- Foundation of Law and Finance (50)
- Hessische Stiftung für Friedens- und Konfliktforschung (HSFK) (48)
- MPI für empirische Ästhetik (44)
- Interdisziplinäres Zentrum für Ostasienstudien (IZO) (40)
- ELEMENTS (37)
- Gleichstellungsbüro (36)
- Fachübergreifend (35)
- Frobenius Institut (33)
- Europäische Akademie der Arbeit in der Universität Frankfurt am Main (32)
- Zentrum für Weiterbildung (31)
- Starker Start ins Studium: Qualitätspakt Lehre (30)
- Extern (29)
- Hochschulrechenzentrum (27)
- Zentrum für Interdisziplinäre Afrikaforschung (ZIAF) (26)
- LOEWE-Schwerpunkt Außergerichtliche und gerichtliche Konfliktlösung (25)
- studiumdigitale (25)
- Sigmund-Freud Institut – Forschungsinstitut fur Psychoanalyse und ihre Anwendungen (19)
- Universität des 3. Lebensalters e.V. (19)
- Akademie für Bildungsforschung und Lehrerbildung (bisher: Zentrum für Lehrerbildung und Schul- und Unterrichtsforschung) (18)
- Exzellenzcluster Herz-Lungen-System (18)
- Center for Membrane Proteomics (CMP) (17)
- Museum Giersch der Goethe Universität (17)
- Forschungskolleg Humanwissenschaften (16)
- Centre for Drug Research (15)
- Zentrum für Nordamerika-Forschung (ZENAF) (15)
- Center for Scientific Computing (CSC) (11)
- Interdisziplinäres Zentrum für Neurowissenschaften Frankfurt (IZNF) (9)
- keine Angabe Institut (9)
- LOEWE-Schwerpunkt für Integrative Pilzforschung (8)
- Forschungszentrum Historische Geisteswissenschaften (FHG) (7)
- Fritz Bauer Institut (7)
- Helmholtz International Center for FAIR (7)
- DFG-Forschergruppen (6)
- Goethe-Zentrum für Wissenschaftliches Rechnen (G-CSC) (6)
- Zentrum für Hochschulsport (ZfH) (6)
- Internationales Studienzentrum (4)
- Frankfurt MathFinance Institute (FMFI) (3)
- Institut für Religionsphilosophische Forschung (3)
- Schreibzentrum (3)
- Zentrale Einrichtung (3)
- (2)
- Akademie für Bildungsforschung und Lehrkräftebildung (2)
- Institut für Bienenkunde (2)
- Wilhelm-Merton-Zentrum (2)
- Diagnostic Center of Acute Leukemia (1)
- Exzellenzcluster (1)
- Fachübergreifende Einrichtungen (1)
- Forschungscluster (1)
- GRADE - Goethe Research Academy for Early Career Researchers (1)
- Katholische Hochschulgemeinde (KHG) (1)
- SFB 268 (1)
- Zentrum zur Erforschung der Frühen Neuzeit (Renaissance-Institut) (1)
- keine Angabe Fachbereich (1)
Die vorliegende Untersuchung der effektiven Stundenlöhne in Deutschland erfolgte im Hin-blick auf die Frage nach der Ungleichheit ihrer Verteilung und der Einhaltung eines Kriteri-ums minimaler Leistungsgerechtigkeit. Ausgangspunkt ist die Annahme eines komplexen Gerechtigkeitsempfindens in der Gesellschaft, das neben dem Marktmechanismus als einem Motor für Leistung und leistungsabhängige Einkommen auch individuelle Anstrengungen sowie die Folgen faktischer Marktunvollkommenheiten bzw. faktischen Marktversagens berücksichtigt. Zur Approximation der ergänzenden Aspekte von Leistungsgerechtigkeit wird an relative Lohnpositionen angeknüpft: Lohneinkommen, die einen gesellschaftlichen Mittelwert sehr weit – bezogen auf den Durchschnitt um mehr als die Hälfte, und alternativ bezogen auf den Median um mehr als ein Drittel – unterschreiten, gelten als Indikator für Zielabweichungen. Implizit wird damit unterstellt, dass individuelle Leistungsunterschiede begrenzt, die aus dem Marktmechanismus folgende Differenzierungen aber grenzenlos sind. Die sich aus dem hier gewählten Kriterium ergebenden Niedriglohngrenzen entsprechen ungefähr alternativ abgeleiteten Grenzwerten, die aus der Norm folgen, dass eine Vollzeiterwerbstätigkeit mindestens das eigene sozio-kulturelle Existenzminimum zuzüglich einer Leistungskomponente sichern sollte. Neben dem Aspekt minimaler Leistungsgerechtigkeit für den unteren Rand der Verteilung werden keine weiteren konkreten Normen zur Beurteilung der Zielangemessenheit der beobachteten Verteilung der Lohnsätze gesetzt. Dies würde den Rahmen dieser Untersuchung sprengen. Die empirische Analyse auf Basis des Sozio-ökonomischen Panels (SOEP) und der Einkommens- und Verbrauchsstichprobe (EVS) konzentriert sich auf das Jahr 2003 und wird ergänzt um einige Auswertungen für 1998, die allerdings nur mit dem SOEP durchgeführt werden können. Obwohl aus dem SOEP generell eine größere Ungleichheit der Verteilung resultiert, halten sich die Unterschiede zwischen den Ergebnissen beider Datenquellen in Grenzen. ...
Zusammenfassung und Schlussfolgerungen Die verschiedenen Alternativrechnungen zur Bemessung des Eckregelsatzes auf Basis der Daten der EVS 2003 und der normativen Setzungen der derzeit gültigen Regelsatzverordnung (RSV) haben zu Beträgen leicht über (Variante 1b) bis mäßig unter (Variante 4b) dem gegenwärtigen Satz von 345 Euro geführt. Da sich aus einer kritischen Betrachtung der grundlegenden Vorentscheidungen, auf denen die RSV aufbaut, einige fragwürdige bzw. nicht konsistente Einzelregelungen ergeben haben, erscheint das seit 2005 gültige Niveau des gesetzlich anerkannten Existenzminimums als tendenziell zu gering, zumal der Eckregelsatz auch für den Leistungsanspruch von Familien mit Kindern maßgeblich ist. Darüber hinaus ist zu bedenken, dass die Herausnahme der Sozialhilfebezieher aus der Referenzgruppe gemäß RSV unter theoretischen Gesichtspunkten nicht hinreichend ist, um Zirkelschlüsse - vom Ausgabeverhalten der Hilfebedürftigen auf deren Existenzminimum - zu vermeiden. Denn nur etwa die Hälfte bis drei Fünftel der Bedürftigen nehmen ihre HLu-Ansprüche wahr, die weiteren Anspruchsberechtigten leben in verdeckter Armut. Die Referenzgruppe zur Ermittlung des sozio-kulturellen Existenzminimums müsste also auch um die so genannte Dunkelziffer der Armut (Personen in verdeckter Armut) bereinigt werden, was vermutlich zu einem leicht erhöhten (regelsatzrelevanten) Ausgabenniveau führen und Forderungen nach einer moderaten Anhebung des Eckregelsatzes unterstreichen würde. Abschließend soll der letztlich normative Charakter jeglicher Definition des Existenzmi-nimums nochmals verdeutlicht werden, aus dem die Notwendigkeit einer gesellschaftspoliti-schen Diskussion dessen, was ein menschenwürdiges Dasein und Chancengerechtigkeit - nicht nur im formalen, sondern im materiellen Sinne - ermöglicht, folgt. Dass mit dem so genannten Statistik-Modell der Regelsatzbemessung keineswegs Objektivität bzw. Wertur-teilsfreiheit, eher nur Überprüfbarkeit oder Nachvollziehbarkeit erreicht wird, haben die An-merkungen zu den regelsatzrelevanten Anteilssätzen einzelner Ausgabenpositionen in Kapitel 3.2 gezeigt. Wie stark der Einfluss normativer Vorentscheidungen auf das Niveau des sozio-kulturellen Existenzminimums ist, zeigt sich aber bereits in der Auswahl der Alleinstehenden als Referenzgruppe. Damit wird bei der Analyse des regelsatzrelevanten Ausgabeverhaltens auf eine Gruppe Bezug genommen, die überdurchschnittlich von relativer Einkommensarmut betroffen ist.13 Alternativ könnten auch die Paarhaushalte ohne Kinder mit ihrem vergleichs-weise geringen Armutsrisiko als Referenzgruppe definiert werden. Nach einer ersten Abschätzung ergibt sich für das unterste Quintil von Paaren ohne Kind ein regelsatzrelevanter Konsum in Höhe von gut 700 Euro; bei gegebenen Regelsatzproportionen folgt daraus ein Existenzminimum (ohne Kosten für Unterkunft und Heizung) von gut 390 Euro gegenüber derzeit 345 Euro bei Alleinstehenden und von etwa 1.130 Euro gegenüber 828 Euro bei Paa-ren mit einem Kind. Mit diesem Beispiel ist nicht die Empfehlung einer entsprechend starken Leistungsanhebung verbunden, sondern lediglich ein Hinweis darauf, dass das derzeitige Ver-fahren der Regelsatzbemessung restriktiv angelegt ist und mit aktuellen Daten eher eine Er-höhung als eine Absenkung des Niveaus des Existenzminimums begründet werden kann.
Sozialpolitische Auseinandersetzungen kursieren gegenwärtig verschärft um die Gestaltung der Sicherung des sozio-kulturellen Existenzminimums, um eine angebliche "Kostenexplosion" bei der Grundsicherung für Arbeitsuchende und um Vermutungen über verbreiteten Leistungsmissbrauch. Der Blick ist also stark auf die staatlicherseits auf Basis des Sozialgesetzbuches (SGB) über Transfers "zu bekämpfende" und "bekämpfte" Armut gerichtet. Vor diesem Hintergrund sollen die auf relative Grenzen – 50% des arithmetischen Mittels oder 60% des Medians der Nettoäquivalenzeinkommen – bezogenen Studien über Armut in Deutschland um eine Armutsanalyse ergänzt werden, die den Einkommensbereich unterhalb des gesetzlichen Existenzminimums in den Fokus nimmt. In der folgenden Untersuchung geht es nicht nur um die Größe der edürftigenBevölkerungsgruppe insgesamt, sondern darüber hinaus um die Bedeutung von Ursachen der Hilfebedürftigkeit – Arbeitslosigkeit, Teilzeiterwerbstätigkeit, niedriges Erwerbseinkommen, Alter –, um geschlechtsspezifische Unterschiede und um die Betroffenheit von Kindern. Hier fehlt es bisher an zeitnahen empirischen Informationen. Daten über die Zahl und Struktur der Empfänger von Grundsicherungsleistungen – also von Arbeitslosengeld II (Alg II) bzw. Sozialgeld, Grundsicherung im Alter und bei Erwerbsminderung oder Hilfe zum Lebensunterhalt (HLu) der Sozialhilfe – vermitteln nur die "halbe Wahrheit". ...
In this work we investigate phenomenological aspects of an anisotropic quark-gluon plasma. In the first part of this thesis, we formulate phenomenologicalmodels that take into account the momentumspace anisotropy of the system developed during the expansion of the fireball at early-times. By including the proper-time dependence of the parton hard momentum scale, phard(), and the plasma anisotropy parameter, Xi, the proposed models allow us to interpolate from 0+1 pre-equilibrated expansion at early-times to 0+1 ideal hydrodynamics at late times. We study dilepton production as a valuable observable to experimentally determine the isotropization time of the system as well as the degree of anisotropy developed at early-times. We generalize our interpolating models to include the rapidity dependence of phard and consider its impact on forward dileptons. Next, we discuss how to constrain the onset of hydrodynamics by demanding two requirements of the solutions to the equations of motion of viscous hydrodynamics. We show this explicitly for 0+1 dimensional 2nd-order conformal viscous hydrodynamics and find that the initial conditions are non-trivially constrained. Finally, we demonstrate how to match the initial conditions for 0+1 dimensional viscous hydrodynamics from pre-equilibrated expansion. We analyze the dependence of the entropy production on the pre-equilibrium phase and discuss limitations of the standard definitions of the non-equilibrium entropy in kinetic theory.
Die vorliegende Dissertationsschrift befasst sich mit der molekulargenetischen Analyse zweier Basalganglienerkrankungen. Zum einen wurden Patienten mit M. Parkinson genetisch untersucht, zum anderen Patienten mit autosomal dominanter zervikaler Torsionsdystonie. Die Aufgabe bestand in der passenden Wahl der Methode zur jeweiligen humangenetischen Fragestellung. Der erste Teil handelte von der Suche der krankheitsverursachenden Mutation für die autosomal dominante zervikale Torsionsdystonie mit Spätmanifestation auf Chromosom 18p (Kandidatenlokus DYT7). Die erkrankte Familie deutscher Herkunft zeigt dystone Symptome mit Betonung auf kraniozervikale und brachiale Körperabschnitte und ist somit die weltweit einzige bekannte Familie mit Vererbung dieser ansonsten sporadisch auftretenden Erkrankung. Die PCR-Sequenzierung der Kandidatengene ZFP161, LOC390828, NDUFV2 und PTPRM auf dem DYT7 Lokus erbrachte bei den sieben erkrankten Familienmitgliedern im Vergleich zu nicht verwandten Kontrollen (Ehepartner und 96 Kontrollen der Blutbank) keinen Aminosäureaustausch, der ausschließlich bei den erkrankten Probanden zu finden war. Technisch konzentrierte sich diese Untersuchung auf die Amplifizierung und anschließende Sequenzierung jedes einzelnen Exons in den zu untersuchenden Proben, und die Bestätigung einer putativen Mutation mittels Verdau der PCR-Produkte durch Restriktionsendonukleasen. Die Auswahl der Kandidatengene erfolgte aufgrund der Annahme pathobiochemischer Mechanismen, die durch andere Formen der vererbten Torsionsdystonie oder zellbiologische Experimente als krankheitsverursachend gelten. Auch wenn keine Mutation gefunden wurde, so konnten bereits bekannte und neue single nucleotide polymorphisms (SNP) etabliert werden. Die zweite Thematik befasste sich mit der Frage, ob das bereits bekannte Parkinson-Gen UCH-L1 auf dem PARK5 Lokus krankheitsverursachend für den autosomal dominanten M. Parkinson in einer spanischen Familie ist. Diese parametrische Kopplungsanalyse wurde mithilfe der heißen Polyacrylamid-Gelelektrophorese (PAGE) durchgeführt. Dabei konnte in allen Patienten und den Verwandten ersten Grades über Analyse der Mikrosatelliten nördlich und südlich der Kandidatenregion (UCH-L1) in einem Bereich sehr niedriger Rekombinationswahrscheinlichkeit eine Haplotypisierung erfolgen. Die Haplotypisierung zeigte nicht die erforderliche Identifizierung eines Krankheitsallels bei allen betroffenen Probanden. Somit ist hier neben der einzig bekannten deutschen PARK5 Familie keine weitere Familie mit UCH-L1 Mutation bestätigt worden. Dementsprechend ist die Ätiologie dieser Erkrankung in dieser Familie noch unklar, was aber der Bedeutung des Ubiquitin-Proteasom Systems in der Parkinson-Entität keinen Abbruch getan hat. Da alle anderen autosomal dominanten Parkinson-Loci ausgeschlossen sind, muss sich die Ursache für den M. Parkinson in dieser Familie in einem heute noch unbekannten Gen befinden. Weitere Untersuchungen im Rahmen eines Genomscans sind aufgrund der geringen Fallzahl nicht möglich. Die letzte Aufgabe dieser Arbeit bestand in der Durchführung einer Assoziationsstudie mit den putativen PINK1 (PARK6) Interaktoren NME4 und MTIF3 für den mehrheitlich sporadisch auftretenden M. Parkinson. Dabei wurden in zwei unabhängigen Studiengruppen mit insgesamt 453 sporadischen Parkinsonpatienten und 370 Kontrollen jeweils zwei SNPs auf gekoppelte Vererbung mit der Erkrankung untersucht. Der Unterschied zwischen den Testgruppen bestand im Studiendesign, da zum einen mit den Patienten nicht verwandte Kontrollen und zum anderen verwandte Kontrollen verwendet wurden. Die mit beiden Studientypen normalerweise auftretenden Probleme durch Stratifikation bzw. erniedrigte statistische Power konnten durch Kombination der Studien ausgeglichen werden. Das Methodenspektrum umfasste PCR und Restriktionsverdau, was zum Auffinden eines Kopplungsungleichgewichts für das Gen MTIF3 führte. Ein heterozygoter Basenaustausch für den Polymorphismus rs7669 erhöht signifikant das Relative Risiko an M. Parkinson zu erkranken, wohingegen der homozygote Basenaustausch das Krankheitsrisiko des Trägers signifikant erniedrigt. Bezüglich des Relativen Risikos wurde der Effekt der molekularen Heterosis nachgewiesen. Bei diesem mitochondrial lokalisierten Gen handelt es sich um einen Initiator der mitochondrialen Translation. Demzufolge besteht hier Einfluss auf die Homöostase und somit Funktionalität der Atmungskettenkomplexe, die als bedeutend für die Pathogenese des M. Parkinson angesehen werden. Die Verbindung zum mitochondrial lokalisierten PINK1 besteht aufgrund seiner Kinase-Aktivität in der An- und Abschaltung des mitochondrialen Translations - Initiationsfaktors. Aber auch die Wichtigkeit von NME4 konnte in dieser Studie trotz fehlender Assoziation nicht ausgeschlossen werden, da vorangehende experimentelle Ergebnisse dieses Protein bereits in den PINK1 Signalweg zuordnen konnten. MTIF3 könnte wohlmöglich ein wichtiger genetische Risikofaktor für den idiopathischen M. Parkinson sein. Es bleibt abzuwarten, ob zukünftige genetische und zellbiologische Experimente die Wichtigkeit, die in diesem Protein zu liegen scheint, bestätigen können.
Large amplitude intramolecular motions in non-rigid molecules are a fundamental issue in chemistry and biology. The conventional approaches for study these motions by far-infrared and microwave spectroscopy are not applicable when the molecule is non-polar. Therefore, in the current thesis an alternative approach for the investigation of large amplitude intramolecular motions was developed and tested. This new method is based on femtosecond rotational degenerate four-wave mixing spectroscopy (fs DFWM), which is a particular implementation of rotational coherence spectroscopy. The method was successfully applied for the investigation of pseudorotation in pyrrolidine and the ring-puckering vibration in cyclopentene. Another important subject is the photophysics of molecules and molecular clusters which have an ultrashort lifetime of their electronically excited state (photoreactivity). These ultrashort lifetimes often represent a protective mechanism causing photostability. The photoreactivity is usually the manifestation either of an “elementary” reaction, such as proton or electron transfer, which occurs in the excited state or of a fast non-radiative deactivation processes, such as internal conversion via conical intersection of the electronically excited and ground state. Due to a short-lived excited state, the conventional vibrational spectroscopic methods, such as IR depletion detected by resonance two-photon ionization spectroscopy (IR/R2PI), are not applicable for the structural investigation of these systems. Therefore, new approach, termed IR depletion detected by multiphoton ionization with femtosecond laser pulses (IR/fsMPI), was developed for studying the structure of photoreactive microsolvated molecules. The IR/fsMPI technique was applied for investigating the clusters of 1H-pyrrolo[3,2-h]quinoline with water/methanol as well as adenine- and 9-methyl-adenine-hydrates. In addition, the excited state dynamics of bifunctional azaaromatic molecule 7-(2'-pyridyl)indole (7PyIn) was studied by femtosecond pump-probe resonance excitation multiphoton ionization technique (fs REMPI). Under electronic excitation of this molecule a fast proton transfer (phototautomerization) takes place, which is followed by radiationless excited state deactivation process. The fs REMPI spectra lead to the conclusion that the phototautomerization in 7PyIn is coupled with a twisting of the molecule, and that the twisting provides an efficient channel for ultrafast radiationless excited state deactivation. This pattern of excited-state tautomerization/deactivation might be quite general.
Der G-Protein-gekoppelte Histamin-H3-Rezeptor (H3R) ist einer von vier bekannten Histamin-Rezeptorsubtypen. Die Verbreitung erstreckt sich hauptsächlich auf das ZNS, wo der Rezeptor maßgeblich an der Regulation des Schlaf-Wach-Rhythmus, der Kognition, der Aufmerksamkeit und dem Ernährungsverhalten beteiligt ist. Als Autorezeptor reguliert er die Darstellung und Freisetzung von Histamin im Gehirn und moduliert darüberhinaus als Heterorezeptor auch die Konzentration anderer wichtiger Neurotransmitter. Ein Ansatz für die Entwicklung neuer Arzneistoffe bei multifaktoriellen Erkrankungen entspringt der Hybridtheorie. In dieser Arbeit wurde der Hybridansatz durch verschiedene Varianten realisiert, bei denen die jeweiligen Pharmakophore durch Überlappung oder Aneinanderkopplung verknüpft wurden. Als Grundstruktur für das H3-Pharmakophor diente das 4-(3-Piperidin-1-ylpropoxy)-phenyl-Element, als andersartige Pharmakophore dienten neben Arzneistoffen aus der Gruppe der Neuroleptika, Antidepressiva und SSRI auch solche Pharmakophore, die das Wirkprofil von H3R-Liganden durch spezifische Eigenschaften (z. B. neuroprotektiv) ergänzen können. Bei der Kopplung der Pharmakophore lag der Fokus auf der Untersuchung von Aminvariationen. Mit Hilfe des Hybridansatzes wurden in dieser Arbeit zahlreiche neue und potente Histamin-H3-Hybridliganden entwickelt. Es wurden hohe Bindungsaffinitäten im nano- bis subnanomolare Bereich erzielt und wichtige Struktur-Wirkungsbeziehungen abgeleitet. In-vitro zeigte sich eine hohe Toleranz des H3R bezüglich der heterogenen Liganden, darunter solche mit sterisch anspruchsvollen, stark basischen und sauren Gruppen.
Einführung Seit Einführung der Diffusionstensorbildgebung- (DTI) basierten Traktographie von zerebralen Bahnsystemen besteht der Verdacht einer zu dünnen Ausdehnung der Faserbahnen in der unmittelbaren Nachbarschaft von zerebralen Läsionen. Der gegenüber der tatsächlichen Ausdehnung verminderte Durchmesser verjüngt sich zusätzlich mit zunehmendem Abstand von dem sog. seed-Volume (“seed-VOI”). Die unterrepräsentierte Ausdehnung der Faserbahnen stellt in der neurochirurgischen Operationsplanung und intraoperativen Neuronavigation ein erhebliches Problem bei der Beurteilung der Resektionsgrenzen von Tumoren bzw. der Grenze dringlich zu erhaltender eloquenter Faserbahnen dar. Mit einem zusätzlichen, auf die Läsion fokussierten Traktographie-Algorithmus – Lesion-based Fibertracking (LBFT) – soll die Auswertbarkeit von Faserbahnen in der Umgebung von intrazerebralen Läsionen verbessert werden. Der Algorithmus von LBFT wird vorgestellt und das Verfahren anhand der Darstellung von Bahnen des Tractus corticospinalis (TCS) mit dem Standardverfahren verglichen. Methode In 40 Patienten mit intrazerebralen Läsionen in Nachbarschaft zu kortikospinalen Bahnen (Pyramidenbahn) wurde eine Diffusionstensor-bildgebung und fMRT basierte Faserbahndarstellung des Tractus corticospinalis auf Grundlage eines „tensor-deflection-Algorithmus“ (TEND) durchgeführt. Hierfür wurden Bahnen von den kortikalen motorischen Repräsentationen der Hand, des Fußes und der Zunge zum Hirnstamm visualisiert. Im Standardverfahren wird ein würfelförmiges Volumen – das sog. seed-Volume oder Ursprungsvolumen – im Gyrus praecentralis entsprechend der anatomischen und funktionellen Bildgebung definiert. Ein zweites würfelförmiges Volumen, lokalisiert im Hirnstamm selektiert ausschließlich Fasern welche durch beide Volumen verlaufen. Die resultierenden Fasern werden bezüglich ihres Verlaufes durch typische anatomische Landmarken kontrolliert und ggf. korrigiert. Anschließend wird das Faserbündel mittels einer Oberflächenrekonstruktionstechnik („surface rendering“) dreidimensional rekonstruiert (iPlan 2.5Cranial, BrainLab®, Feldkirchen, Germany). Für das neue Verfahren des LBFT wird die Region definiert, in welcher die Faserbahn des Standardverfahrens der Läsion am nächsten kommt und hier, um die Faserbahn des Standardverfahrens, ein neues seed-Volume platziert, welches das Standardfaserbündel um 10 mm überragt. Traktographie und Segmentierung werden analog dem Standardverfahren durchgeführt. Fasern, die nicht den Gyrus praecentralis erreichen oder nicht durch den Pedunculus cerebri verlaufen, werden eliminiert. Die Faserzahl, die Größe der Faserbahnen und die Größendifferenz zwischen den Bahnen des Standardverfahrens und LBFT werden verglichen und das Verfahren auf inter- und intra-rater Reliabilität geprüft. Ergebnisse Das Standardverfahren und LBFT waren in allen 40 Patienten durchführbar. Die Faserzahl bei LBFT erhöhte sich signifikant gegenüber dem Standardverfahren um 383,27% (p<0,0001). Der maximale Durchmesser in der Ebene, in welcher das Faserbündel der Läsion am nächsten kommt, sowie der Durchmesser in Richtung der Läsion erhöhen sich signifikant um 171,75 % bzw. 196,45 % (jeweils p<0.0001). Daraus folgt eine durchschnittliche Zunahme des Durchmessers in Richtung der Läsion um 4.48mm (± 2.35). Fazit Die Fehleinschätzung des Durchmessers und der Distanz des TCS zu subkortikalen Läsionen bei Anwendung des Standardverfahrens DTI-basierter Traktographie stellt ein erhebliches Problem in der funktionellen neurochirurgischen Operationsplanung und intraoperativen Neuronavigation dar. Durch den zusätzlichen Schritt des LBFT kann die Fehleinschätzung korrigiert und der in vorhergehenden Studien eingeforderte Sicherheitsabstand standardisiert robust und reliabel realisiert werden.
Die lutherische Reformation war nicht nur eine Reformation von Glauben und Leben, sondern auch eine solche von Tod und Sterben. Mit den Predigten Luthers bei den Begräbnisfeierlichkeiten für die sächsischen Kurfürsten Friedrich den Weisen (1525) und Johann den Beständigen (1532), der Predigt bei Luthers eigenem Begräbnis (1546) und den jeweils begleitenden biographischen orationes Philipp Melanchthons formte sich eine neue Gattung der Totenmemoria aus, die von den Wittenberger Theologiestudenten an ihre späteren Wirkungsorte getragen wurde. Sie selbst waren es dann, in ihrer Funktion als Prediger, die das neue Medium der Leichenpredigt zu ihrer eigenen Verortung in der frühneuzeitlichen Gesellschaft nutzten, indem sie die Gruppe der evangelischen Geistlichen, in der Gestalt des jeweils Verstorbenen, als nachahmenswertes Vorbild christlicher Tugend priesen und ihre Rolle für den gesellschaftlichen Zusammenhalt herausstellten. Das so gezeichnete Bild bringt nicht nur das Amtsverständnis zum Ausdruck, sondern wirft auch Licht auf die jeweiligen Zeitumstände, den Bildungsweg der Verstorbenen, ihre Berufung als Prediger, Heiratsstrategien, Kinder und deren Entwicklung, Zuständigkeitsverteilungen im Amt, gesundheitliche und andere Beschwerden, ihren seelsorgerlichen Einsatz, ihre konfessionelle Ausrichtung und schließlich das ritualisierte Sterben. Somit sind gedruckte Leichenpredigten eine vielseitig auswertbare Quelle zur frühneuzeitlichen Alltagskultur, insbesondere hinsichtlich der Bevölkerungsgruppe, die uns sowohl als deren Autoren, wie als Verstorbene gegenübertritt. Die lutherische Reichsstadt Frankfurt am Main, deren Geistliche sich zur gemeinsamen Beratung in einem „Predigerministerium“ zusammenfanden, bietet hier ein besonders lohnendes Untersuchungsfeld. Die gute Überlieferungslage, die Bedeutung Frankfurts im Alten Reich, wie auch das, gerade am Beginn der Reformationsepoche, spannungsreiche Miteinander von Rat und Predigern ermöglichen es, an ausgewählten Beispielen die Etablierung, das Selbstverständnis und die wechselnden theologischen Herausforderungen der mit der Reformation entstandenen neuen Sozialgruppe der evangelischen Geistlichkeit im Wandel dreier Jahrhunderte zu verfolgen.
The dynamics of many systems are described by ordinary differential equations (ODE). Solving ODEs with standard methods (i.e. numerical integration) needs a high amount of computing time but only a small amount of storage memory. For some applications, e.g. short time weather forecast or real time robot control, long computation times are prohibitive. Is there a method which uses less computing time (but has drawbacks in other aspects, e.g. memory), so that the computation of ODEs gets faster? We will try to discuss this question for the assumption that the alternative computation method is a neural network which was trained on ODE dynamics and compare both methods using the same approximation error. This comparison is done with two different errors. First, we use the standard error that measures the difference between the approximation and the solution of the ODE which is hard to characterize. But in many cases, as for physics engines used in computer games, the shape of the approximation curve is important and not the exact values of the approximation. Therefore, we introduce a subjective error based on the Total Least Square Error (TLSE) which gives more consistent results. For the final performance comparison, we calculate the optimal resource usage for the neural network and evaluate it depending on the resolution of the interpolation points and the inter-point distance. Our conclusion gives a method to evaluate where neural nets are advantageous over numerical ODE integration and where this is not the case. Index Terms—ODE, neural nets, Euler method, approximation complexity, storage optimization.
Since the description of sepsis by Schottmüller in 1914, the amount on knowledge available on sepsis and its underlying pathophysiology has substantially increased. Epidemiologic examinations of abdominal septic shock patients show the potential for high risk posed by and the extensive therapy situation in the intensive care unit (ICU) (5). Unfortunately, until now it has not been possible to significantly reduce the mortality rate of septic shock, which is as high as 50-60% worldwide, although PROWESS' results (1) are encouraging. This paper summarizes the main results of the MEDAN project and their medical impacts. Several aspects are already published, see the references. The heterogeneity of patient groups and the variations in therapy strategies is seen as one of the main problems for sepsis trials. In the MEDAN multi-center study of 71 intensive care units in Germany, a group of 382 patients made up exclusively of abdominal septic shock patients who met the consensus criteria for septic shock (3) was analysed. For use within scores or stand-alone experiments variables are often studied as isolated variables, not as a multidimensional whole, e.g. a recent study takes a look at the role thrombocytes play (15). To avoid this limitation, our study compares several established scores (SOFA, APACHE II, SAPS II, MODS) by a multi-dimensional neuronal network analysis. For outcome prediction the data of 382 patients was analysed by using most of the commonly documented vital parameters and doses of medicine (metric variables). Data was collected in German hospitals from 1998 to 2001. The 382 handwritten patient records were transferred to an electronic database giving the amount of 2.5 million data entries. The metric data contained in the database is composed of daily measurements and doses of medicine. We used range and plausibility checks to allow no faulty data in the electronic database. 187 of the 382 patients are deceased (49 %).
At present, there are no quantitative, objective methods for diagnosing the Parkinson disease. Existing methods of quantitative analysis by myograms suffer by inaccuracy and patient strain; electronic tablet analysis is limited to the visible drawing, not including the writing forces and hand movements. In our paper we show how handwriting analysis can be obtained by a new electronic pen and new features of the recorded signals. This gives good results for diagnostics. Keywords: Parkinson diagnosis, electronic pen, automatic handwriting analysis
Attraction and commercial success of web sites depend heavily on the additional values visitors may find. Here, individual, automatically obtained and maintained user profiles are the key for user satisfaction. This contribution shows for the example of a cooking information site how user profiles might be obtained using category information provided by cooking recipes. It is shown that metrical distance functions and standard clustering procedures lead to erroneous results. Instead, we propose a new mutual information based clustering approach and outline its implications for the example of user profiling.
The Internet as the biggest human library ever assembled keeps on growing. Although all kinds of information carriers (e.g. audio/video/hybrid file formats) are available, text based documents dominate. It is estimated that about 80% of all information worldwide stored electronically exists in (or can be converted into) text form. More and more, all kinds of documents are generated by means of a text processing system and are therefore available electronically. Nowadays, many printed journals are also published online and may even discontinue to appear in print form tomorrow. This development has many convincing advantages: the documents are both available faster (cf. prepress services) and cheaper, they can be searched more easily, the physical storage only needs a fraction of the space previously necessary and the medium will not age. For most people, fast and easy access is the most interesting feature of the new age; computer-aided search for specific documents or Web pages becomes the basic tool for information-oriented work. But this tool has problems. The current keyword based search machines available on the Internet are not really appropriate for such a task; either there are (way) too many documents matching the specified keywords are presented or none at all. The problem lies in the fact that it is often very difficult to choose appropriate terms describing the desired topic in the first place. This contribution discusses the current state-of-the-art techniques in content-based searching (along with common visualization/browsing approaches) and proposes a particular adaptive solution for intuitive Internet document navigation, which not only enables the user to provide full texts instead of manually selected keywords (if available), but also allows him/her to explore the whole database.
Data driven automatic model selection and parameter adaptation – a case study for septic shock
(2004)
In bioinformatics, biochemical pathways can be modeled by many differential equations. It is still an open problem how to fit the huge amount of parameters of the equations to the available data. Here, the approach of systematically learning the parameters is necessary. This paper propose as model selection criterion the least complex description of the observed data by the model, the minimum description length. For the small, but important example of inflammation modeling the performance of the approach is evaluated.
In bioinformatics, biochemical signal pathways can be modeled by many differential equations. It is still an open problem how to fit the huge amount of parameters of the equations to the available data. Here, the approach of systematically obtaining the most appropriate model and learning its parameters is extremely interesting. One of the most often used approaches for model selection is to choose the least complex model which “fits the needs”. For noisy measurements, the model which has the smallest mean squared error of the observed data results in a model which fits too accurately to the data – it is overfitting. Such a model will perform good on the training data, but worse on unknown data. This paper propose as model selection criterion the least complex description of the observed data by the model, the minimum description length. For the small, but important example of inflammation modeling the performance of the approach is evaluated. Keywords: biochemical pathways, differential equations, septic shock, parameter estimation, overfitting, minimum description length.
In bioinformatics, biochemical pathways can be modeled by many differential equations. It is still an open problem how to fit the huge amount of parameters of the equations to the available data. Here, the approach of systematically learning the parameters is necessary. In this paper, for the small, important example of inflammation modeling a network is constructed and different learning algorithms are proposed. It turned out that due to the nonlinear dynamics evolutionary approaches are necessary to fit the parameters for sparse, given data. Proceedings of the 15th IEEE International Conference on Tools with Artificial Intelligence - ICTAI 2003
The early prediction of mortality is one of the unresolved tasks in intensive care medicine. This contribution models medical symptoms as observations cased by transitions between hidden markov states. Learning the underlying state transition probabilities results in a prediction probability success of about 91%. The results are discussed and put in relation to the model used. Finally, the rationales for using the model are reflected: Are there states in the septic shock data?
In intensive care units physicians are aware of a high lethality rate of septic shock patients. In this contribution we present typical problems and results of a retrospective, data driven analysis based on two neural network methods applied on the data of two clinical studies. Our approach includes necessary steps of data mining, i.e. building up a data base, cleaning and preprocessing the data and finally choosing an adequate analysis for the medical patient data. We chose two architectures based on supervised neural networks. The patient data is classified into two classes (survived and deceased) by a diagnosis based either on the black-box approach of a growing RBF network and otherwise on a second network which can be used to explain its diagnosis by human-understandable diagnostic rules. The advantages and drawbacks of these classification methods for an early warning system are discussed.
In bioinformatics, biochemical pathways can be modeled by many differential equations. It is still an open problem how to fit the huge amount of parameters of the equations to the available data. Here, the approach of systematically learning the parameters is necessary. In this paper, for the small, important example of inflammation modeling a network is constructed and different learning algorithms are proposed. It turned out that due to the nonlinear dynamics evolutionary approaches are necessary to fit the parameters for sparse, given data. Keywords: model parameter adaption, septic shock. coupled differential equations, genetic algorithm.
The selection of features for classification, clustering and approximation is an important task in pattern recognition, data mining and soft computing. For real-valued features, this contribution shows how feature selection for a high number of features can be implemented using mutual in-formation. Especially, the common problem for mutual information computation of computing joint probabilities for many dimensions using only a few samples is treated by using the Rènyi mutual information of order two as computational base. For this, the Grassberger-Takens corre-lation integral is used which was developed for estimating probability densities in chaos theory. Additionally, an adaptive procedure for computing the hypercube size is introduced and for real world applications, the treatment of missing values is included. The computation procedure is accelerated by exploiting the ranking of the set of real feature values especially for the example of time series. As example, a small blackbox-glassbox example shows how the relevant features and their time lags are determined in the time series even if the input feature time series determine nonlinearly the output. A more realistic example from chemical industry shows that this enables a better ap-proximation of the input-output mapping than the best neural network approach developed for an international contest. By the computationally efficient implementation, mutual information becomes an attractive tool for feature selection even for a high number of real-valued features.
In its first part, this contribution reviews shortly the application of neural network methods to medical problems and characterizes its advantages and problems in the context of the medical background. Successful application examples show that human diagnostic capabilities are significantly worse than the neural diagnostic systems. Then, paradigm of neural networks is shortly introduced and the main problems of medical data base and the basic approaches for training and testing a network by medical data are described. Additionally, the problem of interfacing the network and its result is given and the neuro-fuzzy approach is presented. Finally, as case study of neural rule based diagnosis septic shock diagnosis is described, on one hand by a growing neural network and on the other hand by a rule based system. Keywords: Statistical Classification, Adaptive Prediction, Neural Networks, Neurofuzzy, Medical Systems
In contrast to the symbolic approach, neural networks seldom are designed to explain what they have learned. This is a major obstacle for its use in everyday life. With the appearance of neuro-fuzzy systems which use vague, human-like categories the situation has changed. Based on the well-known mechanisms of learning for RBF networks, a special neuro-fuzzy interface is proposed in this paper. It is especially useful in medical applications, using the notation and habits of physicians and other medically trained people. As an example, a liver disease diagnosis system is presented.
The prevention of credit card fraud is an important application for prediction techniques. One major obstacle for using neural network training techniques is the high necessary diagnostic quality: Since only one financial transaction of a thousand is invalid no prediction success less than 99.9% is acceptable. Due to these credit card transaction proportions complete new concepts had to be developed and tested on real credit card data. This paper shows how advanced data mining techniques and neural network algorithm can be combined successfully to obtain a high fraud coverage combined with a low false alarm rate.
This paper describes the use of a Radial Basis Function (RBF) neural network in the approximation of process parameters for the extrusion of a rubber profile in tyre production. After introducing the rubber industry problem, the RBF network model and the RBF net learning algorithm are developed, which uses a growing number of RBF units to compensate the approximation error up to the desired error limit. Its performance is shown for simple analytic examples. Then the paper describes the modelling of the industrial problem. Simulations show good results, even when using only a few training samples. The paper is concluded by a discussion of possible systematic error influences, improvements and potential generalisation benefits. Keywords: Adaptive process control; Parameter estimation; RBF-nets; Rubber extrusion
Diese Arbeit plädiert für eine rationale Behandlung von Patientendaten und untersucht dazu die Analyse der Daten mit Hilfe neuronale Netze etwas näher. Erfolgreiche Beispielanwendungen zeigen, daß die menschlichen Diagnosefähigkeiten deutlich schlechter sind als neuronale Diagnosesysteme. Für das Beispiel der neueren Architektur mit RBF-Netzen wird die Funktionalität näher erläutert und gezeigt, wie menschliche und neuronale Expertise miteinander gekoppelt werden kann. Der Ausblick deutet Anwendungen und Praxisproblematik derartiger Systeme an.
The encoding of images by semantic entities is still an unresolved task. This paper proposes the encoding of images by only a few important components or image primitives. Classically, this can be done by the Principal Component Analysis (PCA). Recently, the Independent Component Analysis (ICA) has found strong interest in the signal processing and neural network community. Using this as pattern primitives we aim for source patterns with the highest occurrence probability or highest information. For the example of a synthetic image composed by characters this idea selects the salient ones. For natural images it does not lead to an acceptable reproduction error since no a-priori probabilities can be computed. Combining the traditional principal component criteria of PCA with the independence property of ICA we obtain a better encoding. It turns out that the Independent Principal Components (IPC) in contrast to the Principal Independent Components (PIC) implement the classical demand of Shannon’s rate distortion theory.
This paper proposes a new approach for the encoding of images by only a few important components. Classically, this is done by the Principal Component Analysis (PCA). Recently, the Independent Component Analysis (ICA) has found strong interest in the neural network community. Applied to images, we aim for the most important source patterns with the highest occurrence probability or highest information called principal independent components (PIC). For the example of a synthetic image composed by characters this idea selects the salient ones. For natural images it does not lead to an acceptable reproduction error since no a-priori probabilities can be computed. Combining the traditional principal component criteria of PCA with the independence property of ICA we obtain a better encoding. It turns out that this definition of PIC implements the classical demand of Shannon’s rate distortion theory.
This paper describes the problems and an adaptive solution for process control in rubber industry. We show that the human and economical benefits of an adaptive solution for the approximation of process parameters are very attractive. The modeling of the industrial problem is done by the means of artificial neural networks. For the example of the extrusion of a rubber profile in tire production our method shows good results even using only a few training samples.
In this paper we regard first the situation where parallel channels are disturbed by noise. With the goal of maximal information conservation we deduce the conditions for a transform which "immunizes" the channels against noise influence before the signals are used in later operations. It shows up that the signals have to be decorrelated and normalized by the filter which corresponds for the case of one channel to the classical result of Shannon. Additional simulations for image encoding and decoding show that this constitutes an efficient approach for noise suppression. Furthermore, by a corresponding objective function we deduce the stochastic and deterministic learning rules for a neural network that implements the data orthonormalization. In comparison with other already existing normalization networks our network shows approximately the same in the stochastic case but, by its generic deduction ensures the convergence and enables the use as independent building block in other contexts, e.g. whitening for independent component analysis. Keywords: information conservation, whitening filter, data orthonormalization network, image encoding, noise suppression.
Im Zeitraum 1. 11. 1993 bis 30. 3. 1997 wurden 1149 allgemeinchirurgische Intensivpatienten prospektiv erfaßt, von denen 114 die Kriterien des septischen Schocks erfüllten. Die Letalität der Patienten mit einem septischen Schock betrug 47,3%. Nach Training eines neuronalen Netzes mit 91 (von insgesamt n = 114) Patienten ergab die Testung bei den verbleibenden 23 Patienten bei der Berücksichtigung von Parameterveränderungen vom 1. auf den 2. Tag des septischen Schocks folgendes Ergebnis: Alle 10 verstorbenen Patienten wurden korrekt als nicht überlebend vorhergesagt, von den 13 Überlebenden wurden 12 korrekt als überlebend vorhergesagt (Sensitivität 100%; Spezifität 92,3%).
This paper describes the use of a radial basis function (RBF) neural network. It approximates the process parameters for the extrusion of a rubber profile used in tyre production. After introducing the problem, we describe the RBF net algorithm and the modeling of the industrial problem. The algorithm shows good results even using only a few training samples. It turns out that the „curse of dimensions“ plays an important role in the model. The paper concludes by a discussion of possible systematic error influences and improvements.
The paper focuses on the division of the sensor field into subsets of sensor events and proposes the linear transformation with the smallest achievable error for reproduction: the transform coding approach using the principal component analysis (PCA). For the implementation of the PCA, this paper introduces a new symmetrical, lateral inhibited neural network model, proposes an objective function for it and deduces the corresponding learning rules. The necessary conditions for the learning rate and the inhibition parameter for balancing the crosscorrelations vs. the autocorrelations are computed. The simulation reveals that an increasing inhibition can speed up the convergence process in the beginning slightly. In the remaining paper, the application of the network in picture encoding is discussed. Here, the use of non-completely connected networks for the self-organized formation of templates in cellular neural networks is shown. It turns out that the self-organizing Kohonen map is just the non-linear, first order approximation of a general self-organizing scheme. Hereby, the classical transform picture coding is changed to a parallel, local model of linear transformation by locally changing sets of self-organized eigenvector projections with overlapping input receptive fields. This approach favors an effective, cheap implementation of sensor encoding directly on the sensor chip. Keywords: Transform coding, Principal component analysis, Lateral inhibited network, Cellular neural network, Kohonen map, Self-organized eigenvector jets.
After a short introduction into traditional image transform coding, multirate systems and multiscale signal coding the paper focuses on the subject of image encoding by a neural network. Taking also noise into account a network model is proposed which not only learns the optimal localized basis functions for the transform but also learns to implement a whitening filter by multi-resolution encoding. A simulation showing the multi-resolution capabilitys concludes the contribution.
We present a framework for the self-organized formation of high level learning by a statistical preprocessing of features. The paper focuses first on the formation of the features in the context of layers of feature processing units as a kind of resource-restricted associative multiresolution learning We clame that such an architecture must reach maturity by basic statistical proportions, optimizing the information processing capabilities of each layer. The final symbolic output is learned by pure association of features of different levels and kind of sensorial input. Finally, we also show that common error-correction learning for motor skills can be accomplished also by non-specific associative learning. Keywords: feedforward network layers, maximal information gain, restricted Hebbian learning, cellular neural nets, evolutionary associative learning
One of the most interesting domains of feedforward networks is the processing of sensor signals. There do exist some networks which extract most of the information by implementing the maximum entropy principle for Gaussian sources. This is done by transforming input patterns to the base of eigenvectors of the input autocorrelation matrix with the biggest eigenvalues. The basic building block of these networks is the linear neuron, learning with the Oja learning rule. Nevertheless, some researchers in pattern recognition theory claim that for pattern recognition and classification clustering transformations are needed which reduce the intra-class entropy. This leads to stable, reliable features and is implemented for Gaussian sources by a linear transformation using the eigenvectors with the smallest eigenvalues. In another paper (Brause 1992) it is shown that the basic building block for such a transformation can be implemented by a linear neuron using an Anti-Hebb rule and restricted weights. This paper shows the analog VLSI design for such a building block, using standard modules of multiplication and addition. The most tedious problem in this VLSI-application is the design of an analog vector normalization circuitry. It can be shown that the standard approaches of weight summation will not give the convergence to the eigenvectors for a proper feature transformation. To avoid this problem, our design differs significantly from the standard approaches by computing the real Euclidean norm. Keywords: minimum entropy, principal component analysis, VLSI, neural networks, surface approximation, cluster transformation, weight normalization circuit.
It is well known that artificial neural nets can be used as approximators of any continuous functions to any desired degree and therefore be used e.g. in high - speed, real-time process control. Nevertheless, for a given application and a given network architecture the non-trivial task remains to determine the necessary number of neurons and the necessary accuracy (number of bits) per weight for a satisfactory operation which are critical issues in VLSI and computer implementations of nontrivial tasks. In this paper the accuracy of the weights and the number of neurons are seen as general system parameters which determine the maximal approximation error by the absolute amount and the relative distribution of information contained in the network. We define as the error-bounded network descriptional complexity the minimal number of bits for a class of approximation networks which show a certain approximation error and achieve the conditions for this goal by the new principle of optimal information distribution. For two examples, a simple linear approximation of a non-linear, quadratic function and a non-linear approximation of the inverse kinematic transformation used in robot manipulator control, the principle of optimal information distribution gives the the optimal number of neurons and the resolutions of the variables, i.e. the minimal amount of storage for the neural net. Keywords: Kolmogorov complexity, e-Entropy, rate-distortion theory, approximation networks, information distribution, weight resolutions, Kohonen mapping, robot control.
It is well known that artificial neural nets can be used as approximators of any continous functions to any desired degree. Nevertheless, for a given application and a given network architecture the non-trivial task rests to determine the necessary number of neurons and the necessary accuracy (number of bits) per weight for a satisfactory operation. In this paper the problem is treated by an information theoretic approach. The values for the weights and thresholds in the approximator network are determined analytically. Furthermore, the accuracy of the weights and the number of neurons are seen as general system parameters which determine the the maximal output information (i.e. the approximation error) by the absolute amount and the relative distribution of information contained in the network. A new principle of optimal information distribution is proposed and the conditions for the optimal system parameters are derived. For the simple, instructive example of a linear approximation of a non-linear, quadratic function, the principle of optimal information distribution gives the the optimal system parameters, i.e. the number of neurons and the different resolutions of the variables.
Clathrates are candidate materials for thermoelectric applications because of a number of unique properties. The clathrate I phases in the Ba-Ni-Ge ternary system allow controlled variation of the charge carrier concentration by adjusting the Ni content. Depending on the Ni content, the physical properties vary from metal-like to insulator-like and show a transition from p-type to n-type conduction. Here we present first results on the characterization of millimeter-sized single crystals grown by the Bridgman technique. Single crystals with a composition of Ba8Ni3.5Ge42.1h0.4 show metallic behavior (dp/dT > 0) albeit with high resistivity at room temperature [p (300 K) = 1 mOhm cm]. The charge carrier concentration at 300 K, as determined from Hall-effect measurements, is 2.3 e-/unit cell. The dimensionless thermoelectric figure of merit estimated at 680 K is ZT ~ 0.2. Keywords Clathrates - thermoelectric material - intermetallic compound - nickel
We suggest a new method to compute the spectrum and wave functions of excited states. We construct a stochastic basis of Bargmann link states, drawn from a physical probability density distribution and compute transition amplitudes between stochastic basis states. From such transition matrix we extract wave functions and the energy spectrum. We apply this method toU(1)2+1 lattice gauge theory. As a test we compute the energy spectrum, wave functions and thermodynamical functions of the electric Hamiltonian and compare it with analytical results. We find excellent agreement. We observe scaling of energies and wave functions in the variable of time. We also present first results on a small lattice for the full Hamiltonian including the magnetic term.
Central elements of the Bologna declaration have been implemented in a huge variety of curricula in humanities, social sciences, natural sciences and engineering sciences at German universities. Overall the results have been nothing less than disastrous. Surprisingly, this seems to be the perfect time for German universities to talk about introducing a curriculum that is fully compatible with the Bologna declaration for medical education as well. However, German medical education does not have problems the Bologna declaration is intended to solve, such as quality, mobility, internationalization and employability. It is already in the Post-Bologna age.
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Ein wesentliches Ziel der modernen Perforatorlappen vom Unterbauch (DIEP-flap) für die Brustrekonstruktion nach Mammaamputation ist die Schonung der Rektusmuskulatur. Der Funktionserhalt der Muskulatur ist abhängig von der Präparationstechnik. In unserer Studie wird die Interaktion zwischen der Muskel- und Nervendurchtrennung und der postoperativen Muskelfunktion untersucht. Material und Methoden: Unser Patientenkollektiv umfasst 42 Patienten. Im Zeitraum von 6/04 bis 06/07 wurden 44 DIEP-Lappen an unserer Klink nach dem gleichen operativen Standard von unterschiedlichen Operateuren zur Brustrekonstruktion transferiert. Die Standards beinhalten die beidseitige Präparation der Perforatorgefäße des Unterbauches, der SIEA-Gefäße, die Auswahl der 2–4 kräftigsten Perforatoren einer Seite und die schonende Präparation der Rektusmuskulatur und der motorischen Nervenäste.In einer prospektiven monozentrischen Studie haben wir die Rektusmuskulatur präoperativ und 6 Monate postoperativ untersucht. Für die Funktionsanalyse wurde sowohl die Myosonografie der Rektusmuskulatur als auch eine klinischen Untersuchung angewandt. Intraoperativ wurde die Anzahl und Lokalisation der Perforatoren, die Länge der gespreizten Muskulatur, die Länge der durchtrennten Muskulatur und die Anzahl und Lokalisation der durchtrennten intramuskulären Nerven in einer Skizze eingetragen. Die Relation zwischen der intraoperativen Muskel- und Nervenschädigung und der postoperativen Funktion wurde analysiert. Ergebnisse: Bei der Hebung des DIEP – flaps wurden im Durchschnitt 10,8 cm Muskulatur gespreizt, 8,2 cm Muskulatur getunnelt und 2,5 cm Muskulatur durchtrennt. In 41% (18 Pat) wurde 1 motorischer Nervenast durchtrennt, in 27,3% (12 Pat) waren es 2 und in 13,6% (6 Pat) 3 Nervenäste. Bei der klinischen Untersuchung 6 Monate postoperativ hatten 8 Patientinnen noch funktionelle Störungen beim Heben schwerer Gegenstände. Myosonografisch fand sich bei 3 Patientinnen eine Funktionsminderung: 1 vollständiger Funktionsverlust der Muskulatur mit Relaxatio, 2 relevante Minderungen der Kontraktilität Bei keiner Patientin fand sich eine Bauchwandhernie. Bei allen Patientinnen mit einer Beeinträchtigung der Muskulatur waren mind. 2 motorische Nervenäste durchtrennt worden. Schlussfolgerung: Die klinische und myosonografische Funktionsanalyse der Bauchwand ermöglicht die Erstellung von Standards zur verbesserten Operationstechnik. Unsere Ergebnisse zeigen, dass die Durchtrennung von 2 oder mehr motorischen Nervenästen vermieden werden muß. Die Länge der durchtrennten und gespreizten Muskulatur ist dagegen von geringerer Bedeutung.
Einleitung: Die pathologische Stimulierbarkeit von Serum-Calcitonin (CT) im relativ niedrigen Bereich (über 100 bis 300 pg/ml) trennt nicht hinreichend zwischen C-Zell-Hyperplasie (CCH) und C-Zell-(Mikro-)Karzinom (CCC), bei Überwiegen der Fälle mit CCH. Der Schilddrüsenisthmus ist frei von C-Zellen (Lit. mult., eigene Studie). Dies führte zur Methode der ITBL , welche nun an einer größeren prospektiv dokumentierten Serie von Patienten evaluiert wird.
Material und Methoden: 102 Patienten mit präoperativ gering bis mäßig erhöhtem CT (stim.≥100 ≤400 pg/ml) wurden mit der Intention zur ITBL operiert. Bei 30 erfolgte die Komplettierung zur totalen Thyreoidektomie (TTX), davon 27 in gleicher Sitzung, im Fall von Malignität unter Einschluss der systematischen Lymphknotendissektion (LNX). Gründe zur Komplettierung waren Mikrokarzinome (12 medulläre, 7 differenzierte) oder benigne Isthmusknoten (n=11).
Ergebnisse: Bei allen 72 Patienten mit definitiver ITBL (darunter 2 Mikro-CCC, übrige CCH) lag, ebenso wie bei den 30 Patienten mit TTX, das postoperative CT unter der Messgrenze (unter 2 pg/ml), mit einer Ausnahme (3 pg/ml, nicht stimulierbar); maximal stim. CT war bei 5 der 72 Patienten im unteren Normbereich messbar (3 – 4,6 pg/ml), bei den übrigen ebenfalls unter der Messgrenze. Alle 102 Patienten waren "biochemisch geheilt".
Schlussfolgerung: Die ITBL hat sich mit hinreichender Sicherheit als optimale Operationsmethode für Fälle mit CCH erwiesen und ist bzgl. ihrer Radikalität der TTX gleichwertig, unter Belassung eines gesunden Schilddrüsenrestes (Isthmus) von funktioneller Relevanz (2 – 5 g).
Die Virtuelle Fachbibliothek Biologie (www.vifabio.de) bündelt die Recherche nach wissenschaftlich hochwertigen Quellen aus Bibliotheken, Aufsatzbanken und Internet. Zentrales Element von vifabio ist dabei der Virtuelle Katalog: Mit einer Suchanfrage werden mehrere Kataloge zoologisch bzw. ornithologisch relevanter Bibliotheken, Zeitschriftendatenbanken wie Zoological Record (Nationallizenz 1864 bis 2007 für Nutzer in akademischen Einrichtungen), BioLIS und der Aufsatzkatalog OLC, sowie Landesbibliographien und der Internetquellen-Führer von vifabio durchsucht. Verlinkungen zur Elektronischen Zeitschriftenbibliothek Regensburg (EZB), zum Lieferdienst subito sowie zum Karlsruher Virtuellen Katalog (KVK) erleichtern den Zugang zum Volltext oder zum gedruckten Exemplar. Weitere Module von vifabio wie der Internetquellen-Führer bzw. der Datenbank-Führer eröffnen zusätzliche Rechercheoptionen.
Towards correctness of program transformations through unification and critical pair computation
(2010)
Correctness of program transformations in extended lambda-calculi with a contextual semantics is usually based on reasoning about the operational semantics which is a rewrite semantics. A successful approach is the combination of a context lemma with the computation of overlaps between program transformations and the reduction rules, which results in so-called complete sets of diagrams. The method is similar to the computation of critical pairs for the completion of term rewriting systems. We explore cases where the computation of these overlaps can be done in a first order way by variants of critical pair computation that use unification algorithms. As a case study of an application we describe a finitary and decidable unification algorithm for the combination of the equational theory of left-commutativity modelling multi-sets, context variables and many-sorted unification. Sets of equations are restricted to be almost linear, i.e. every variable and context variable occurs at most once, where we allow one exception: variables of a sort without ground terms may occur several times. Every context variable must have an argument-sort in the free part of the signature. We also extend the unification algorithm by the treatment of binding-chains in let- and letrec-environments and by context-classes. This results in a unification algorithm that can be applied to all overlaps of normal-order reductions and transformations in an extended lambda calculus with letrec that we use as a case study.
Die Allmacht der göttlichen Gnade in der Gaudiya-Vaisnava-Theologie Srila Bhaktivinoda Thakuras
(2010)
Yajnavalkya : seine Philosophie – seine Soteriologie ; Klaus Mylius zum 80. Geburtstag gewidmet
(2010)
Measuring confidence and uncertainty during the financial crisis : evidence from the CFS survey
(2010)
The CFS survey covers individual situations of banks and other companies of the financial sector during the financial crisis. This provides a rare possibility to analyze appraisals, expectations and forecast errors of the core sector of the recent turmoil. Following standard ways of aggregating individual survey data, we first present and introduce the CFS survey by comparing CFS indicators of confidence and predicted confidence to ifo and ZEW indicators. The major contribution is the analysis of several indicators of uncertainty. In addition to well established concepts, we introduce innovative measures based on the skewness of forecast errors and on the share of ‘no response’ replies. Results show that uncertainty indicators fit quite well with pattern of real and financial time series of the time period 2007 to 2010. Business Sentiment , Financial Crisis , Survey Indicator , Uncertainty
This paper provides theory as well as empirical results for pre-averaging estimators of the daily quadratic variation of asset prices. We derive jump robust inference for pre-averaging estimators, corresponding feasible central limit theorems and an explicit test on serial dependence in microstructure noise. Using transaction data of different stocks traded at the NYSE, we analyze the estimators’ sensitivity to the choice of the pre-averaging bandwidth and suggest an optimal interval length. Moreover, we investigate the dependence of pre-averaging based inference on the sampling scheme, the sampling frequency, microstructure noise properties as well as the occurrence of jumps. As a result of a detailed empirical study we provide guidance for optimal implementation of pre-averaging estimators and discuss potential pitfalls in practice. Quadratic Variation , MarketMicrostructure Noise , Pre-averaging , Sampling Schemes , Jumps
Nahrungsmittelallergikern steht aufgrund inakzeptabler Nebenwirkungen bei der spezifischen Immuntherapie zurzeit noch keine kausale Therapie dieser Erkrankung zur Verfügung. Demzufolge bleibt die Vermeidung der entsprechenden Lebensmittel für Nahrungsmittelallergiker der einzige Weg möglicherweise lebensbedrohlichen allergischen Reaktionen zu entgehen. Ziel dieser Arbeit war es, das Potential eines viralen Vektors für die Verwendung bei der spezifischen Immuntherapie der Lebensmittelallergie zu untersuchen. Die Überlegung dahinter war, das Risiko eines anaphylaktischen Schocks, der bei Injektion eines Allergens immer gegeben ist, durch intrazelluläre Expression des Proteins über das rekombinante Virus zu verringern. Zusätzlich dazu bringt das modifizierte Vacciniavirus Ankara (MVA) ideale Voraussetzungen für eine Allergievakzine mit: Die Infektion mit MVA führt zu einer stark Th1-gerichteten Immunantwort gegen die viral exprimierte Proteine, die möglicherweise die allergische Th2-gerichtete Immunantwort modulieren kann. Die prophylaktische Immunisierung mit MVA-OVA im Mausmodell der systemischen Sensibilisierung gegen Ovalbumin (OVA) führte dosisabhängig zur Suppression der spezifischen IgE-Antwort und somit zum Schutz vor allergischer Sensibilisierung. Zusätzlich konnte nachgewiesen werden, dass die Vakzinierung mit MVA-OVA eine dauerhafte spezifische IgG-Antwort induziert. Diese Daten unterstützen das Konzept einer Modulation der Sensibilisierung durch MVA-Vakzine. Weiterhin wurden zwei rekombinante Vakzinen generiert, mittels derer entweder das Tropomyosin aus Garnelen (Pen a 1) oder das Lipid-Transfer-Protein aus Haselnuss (Cor a 8) intrazellulär exprimiert werden konnte. Dass die Sensibilisierung gegen diese Allergene häufig mit schweren allergischen Reaktionen korreliert, unterstreicht die Notwendigkeit einer verbesserten Immuntherapie in diesem Bereich. Während MVA-Pen a 1 in ausreichender Menge und Qualität für die Verwendung im Mausmodell hergestellt werden konnte, gelang es nicht, eine homogene Population von MVA-Cor a 8 zu gewinnen, in der das Selektionsgen K1L nicht mehr vorhanden war. Parallel zur Virusherstellung wurden Mausmodelle der Sensibilisierung gegen Cor a 8 und Pen a 1 entwickelt. Vergleiche unterschiedlicher Mausstämme ergaben, dass sich Mäuse des Stammes CBA/J am empfänglichsten für eine systemische Sensibilisierung mit Cor a 8 sind. Aufgrund von Erfahrungen zur Sensibilisierung gegen Pen a 1 wurden Mäuse des Stammes C3H/HeJ bei der Etablierung eines Garnelenallergiemodells verwendet. Es zeigte sich, dass durch die intragastrale Applikation von 0,1 mg Pen a 1 sowie Choleratoxin als Adjuvanz (drei Gaben in dreiwöchigem Abstand), gefolgt von einer systemischen Gabe des Allergens mit Aluminiumhydroxid eine spezifische Sensibilisierung hervorgerufen werden konnte, die nach Exposition mit Pen a 1 zu allergischen Symptomen führte. Auch in diesem Modell bot die prophylaktische Immunisierung mit MVA-Pen a 1 Schutz vor Pen a 1spezifischer Sensibilisierung. Um die therapeutische Effektivität der Vakzine ermitteln zu können, muss die begonnene Etablierung eines Allergiemodells mit symptomauslösenden Provokationen und immunologischen Analysen weitergeführt werden. Der in dieser Studie beobachtete starke schützende Effekt einer Vakzinierung mit MVA vor allergischer Sensibilisierung und das sehr gute Sicherheitsprofil dieses Vektors in klinischen Studien zu anderen Erkrankungen belegt die Möglichkeit einer Verwendung von MVA zur erfolgreichen spezifischen Immuntherapie der Lebensmittelallergie.
Einleitung: Der Schlauchmagen (Sleeve Gastrectomy) wurde zunächst als erster Teil der biliopankreatischen Diversion mit Duodealswitch eingeführt, um das operative Risiko durch eine Zweischritt-Therapie zu senken. Zunehmend wird das Verfahren nun auch als eigeneständige Operation zur Gewichtsreduktion eingesetzt, obwohl noch keine Langzeitergebnisse vorliegen.
Material und Methoden: Im Zeitraum von 03/2001 bis 03/2007 wurden 120 Patienten (mittleres Alter: 40,3 Jahre; Geschlecht : 86 Frauen, 34 Männer ; Mittelwerte für Gewicht (179,8 kg), Körperlänge (1,72 m), BMI (60,7 kg/m2)Übergewicht (117,1 kg)mit einem laparoskopischen Schlauchmagenbildung behandelt. Die Ausgangssituation war zwischen den Gruppen nicht verschieden (Pearson). Bei 106 der Patienten war ein BPD-DS geplant, der in zwei Schritten erfolgen sollte. 6 Patienten hatten bereits vorher ein Magenband. In der Gruppe A (n=25) erfolgte keine Kalibration des Schlauches mit Hilfe einer Sonde. In Gruppe B (n=32) wurde eine 44 French und in Gruppe C (n=63) eine 33 French im Durchmesser starke Sonde zur Kalibration eingesetzt.
Ergebnisse: Intraoperativ wurden durch Volumenmessung über die Sonde die Schlauchvolumina mit einer hohen Varianz gemessen (A: 149,0 ml, SD: 15,2; B:117,4 ml, SD:34,8; C: 78,3 ml,SD: 17,9). Die Unterschiede waren statistisch signifikant (p<0,01; eta2=0,61). Besonders deutlich waren die Unterschiede im resezierten Magenvolumen (A:490,2 ml; B 732,7 ml; C:1156,1 ml). Da statistisch keine Abhängigkeit zwischen BMI und Magenvolumen nachgewiesen w erden konnte, zeigt sich die Ungenauigkeit der Schlauchmagenmessung gegenüber der Messung des resezierten Magenvolumens. Ergebnisse der Gewichtsreduktion zeigen eine Abhängigkeit von der Kalibration des Magenschlauches und des resezierten Magen-Volumens. Der Gewichtsverlust beträgt im Gesamtpatientengut und zeigt ab dem 3. Postoperativen Jahr eine Tendenz zum Wiederanstieg des Gewichtes. Eine unterlassene Kalibration und ein Volumen von weniger als 500 cm3 für den entfernten Magen sind mit einem Gewichtsanstieg spätestens nach 2- 3 Jahre verbunden. Der Verlust von 20 BMI-Punkten wird nach 2 Jahren erreicht.
Schlussfolgerung: Die Schlauchmagenbildung ist ein restriktives Verfahren, dass bei einer Kalibration eines engen Magenschlauches (32 French) und einem resezierten Magenvolumen von mindestens 500 eine sehr gute Gewichtsreduktion erzielt, die sich bei dem EWL zwischen de Ergebnissen des Magenbandes und des Magenbypass bewegt. Durch Anpassung der Ernährungsgewohnheiten kann es wie bei allen pur restriktiven Verfahren zu einem Wiederanstieg des Körpergewichtes.
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Über 4 Millionen Menschen leben in Deutschland schätzungsweise mit chronischen Wunden. Aufgrund der demographischen Entwicklung unserer Gesellschaft ist mit einem weiteren Anstieg der zu nicht, oder nur zögerlich heilenden Wunden führenden Erkrankungen diabetisches Fußsyndrom, chronisch venöse Insuffizienz und pAVK auszugehen. Dennoch ist die moderne hydroaktive Wundbehandlung in Deutschland nicht flächendeckend etabliert. Gründe hierfür liegen unter anderem in dem unüberschaubaren Produktsortiment, der unzureichenden Vergütung vor allem im ambulanten Versorgungssektor und in der mangelhaften ärztlichen Ausbildung in Bezug auf Wundtherapie. Ein standardisiertes Wundbehandlungsschema erleichtert die stadiengerechte Anwendung moderner Wundauflagen und dient als nachvollziehbare Entscheidungsgrundlage in der Auswahl der erforderlichen Wundprodukte. Material und Methoden: Anhand eines Bogens werden vier Kriterien (Wundstadium, Wundexsudation, Wundtiefe und Wundinfektion) zur Beurteilung einer Wunde erfasst. Die fotographische Abbildung der verschiedenen Wundstadien erlaubt eine sichere visuelle Zuordnung durch den Therapeuten. Nach Analyse dieser S.E.T.I. Kriterien ergibt sich eine eindeutige stadiengerechte Produktzuordnung, die auch dem weniger geübten eine sichere Anwendung der verschiedenen Produktgruppen ermöglicht. Ergebnisse: Dieser Behandlungsstandard wurde zwischenzeitlich an 3 Kliniken der Maximalversorgung und in einem integrierten Versorgungsmodell zum diabetischen Fußsyndrom etabliert und stellt einen Bestandteil für ein weiteres IV Modell zur pAVK dar. Neben ökonomischen Vorteilen (reduzierte Lagerhaltungskosten, Straffung des Produktsortiments, günstigere Bezugskonditionen) lässt sich eine Verbesserung in der Behandlungsqualität, eine verkürzte stationäre Behandlungsdauer sowie eine vereinfachte Umsetzung einer sektorenübergreifenden Wundversorgung erzielen. Schlussfolgerung: Die Anwendung eines Therapiestandards für die stadiengerechte Behandlung chronischer Wunden ermöglicht eine Anwenderunabhängige gleich bleibend hohe Qualität sowie eine wesentlich vereinfachte Orientierung in dem Produktsortiment. Hierdurch wird weiterhin ein Beitrag zur Schnittstellenoptimierung zwischen dem stationären und ambulanten Versorgungssektor bei chronischen Wunden geleistet. Ein verbindlicher interdisziplinärer und interprofessioneller Wundbehandlungsstandard stellt eine unverzichtbare Qualitätssicherungsmaßnahme in der Wundbehandlung dar.
Einleitung: Am 16.12.06 wurde im Eurotransplant-Gebiet der MELD-Score (MELD) als Allokationsbasis zur Lebertransplantation (OLT) eingeführt. Ziel ist eine Reduktion der Sterblichkeit auf der Warteliste. Material und Methoden: 100 Patienten wurden in die prospektive Analyse der MELD-Allokation vom 16.12.06 bis 15.09.07 einbezogen. Ergebnisse: Aktuell warten 68 Pat., 28 Pat. wurden transplantiert, 4 Pat. sind auf der Warteliste (WL) verstorben (4%). Der mittlere MELD auf der WL beträgt 17,2 +/- 5,2 (7-28). Bei 12 Pat. liegt eine Standard-exception (SE) (n=10 HCC, n=2 metabolische Erkrankung) mit einem Match-MELD von 25,6 +/-2,06 vor (24-28). Die Todesursachen der vier auf der WL verstorbenen Pat. waren eine akute Varizenblutung (MELD 9), zwei kardiale Versagen (MELD 13, 18) und eine MRSA-Sepsis (MELD 29, NT-Status). Die 28 transplantierten Pat. hatte zum Zeitpunkt der Transplantation einen mittleren MELD von 27,66 +/- 5,1 Punkten (21 bis 40). 20 Pat. wurden aufgrund des Labor-MELD (28,4 +/- 5,3, 24-40) transplantiert, wobei 7 Pat. einen MELD über 30 aufwiesen. Die Wartezeit lag bei 11,55 +/- 5,3 Tagen. 8 Pat. erhielten bei SE bei HCC (MELD 24 +/- 0, 24) ein Organ nach einer Wartezeit von 320 +/- 9,7 Tagen. Aktuell leben 23 der 28 transplantierten Pat. Bei zwei verstorbenen Pat. war die Todesursache ein kardiales Versagen, bei zwei Patienten eine primäre Non-Funktion sowie ein septisches Multiorganversagen. Schlussfolgerung: Während der ersten Monate der MELD Allokation lag die Letalität auf der WL in unserem Zentrum bei 4%. Patienten mit einem mittleren MELD über 27 erhielten Organangebote und konnten nach kurzer Wartezeit transplantiert werden.
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Konventionelle Ösophagusresektionen gehen auch heute noch mit einer hohe Morbidität und Mortalität einher. Die Ergebnisse einiger Serien minimal-invasiver Ösophagusresektionen sind vielversprechend, aber kontrovers diskutiert. Material und Methoden: Im Rahmen einer Beobachtungsstudie werden seit Mai 2005 minimal-invasive thorakoabdominelle Ösophagektomien mit cervikalem Magenhochzug durchgeführt. Die operativen Parameter und der postoperative Verlauf werden prospektiv erfasst und jetzt retrospektiv ausgewertet. Ergebnisse: Seit Mai 2005 wurden 28 Patienten minimal-invasive ösophagektomiert, 3 transhiatal und 25 thorakoabdominell. Indikation waren Plattenepithelkarzinome bei 14 und distale Adenokarzinome bei 13 Patienten, bei einem Patienten eine langstreckige benigne Stenose. Die Tumorstadien waren UICC-IIa in 7, UICC-2b in 2 und UICC-III in 18 Patienten. 11 Patienten (41%) wurden neoadjuvant vorbehandelt. Die OP-Zeit betrug im Mittel 296 Min. +/- 46 Min., der intraoperative Blutverlust 110 ml +/- 131 ml. Ein abdomineller Operationsabschnitt wurde konvertiert (4%), thorakal war bisher keine Konversion notwendig. R-0 Resektionen wurde in 26/27 Patienten (96%) erzielt, die mittlere Anzahl entfernter Lymphknoten betrug 19. Die 30-Tage –Letalität war 0, die Krankenhausletalität 11%. Die Morbidität betrug 54% und beinhaltet 7 Anastomoseninsuffizienzen, 2 „Ösophago“-tracheale Fisteln, 1 Hiatushernie, 2 Recurrensparesen, 2 Pneumonien und 1 beatmungspflichtiges Delir. Drei Patienten (11%) wurden operativ revidiert (eine Fistel, eine Anastomoseninsuffizienz bei Magenschlauchnekrose, eine Hiatushernie). Schlussfolgerung: Nach Einführung der minimal-invasiven thorakoabdominellen Ösophagektomie werden die exzellenten Ergebnisse anderer minimal-invasiver Serien bisher nicht erreicht, entsprechen aber im Wesentlichen den Ergebnissen der konventionellen Technik. Abzuwarten bleibt, ob die Ergebnisse nach weiterer Abflachung der Lernkurve Verbesserungen aufweisen werden.
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Die Resektion von Lebermetastasen kolorektaler Karzinome stellt die einzige potentiell kurative Behandlungsoption dar. Wirksame Chemotherapeutika wie Oxaliplatin und Irinotecan sind in den Verdacht geraten durch histologische Veränderungen an der Leber das Resektionsausmass oder das Outcome von vorbehandelten Patienten zu gefährden.Die vorliegende Studie untersucht daher den Grad der Steatohepatitis bei Patienten mit kolorektalen Lebermetastasen in Abhängigkeit von der Chemotherapie. Material und Methoden: In einem Kollektiv von 100 konsekutiven Patienten (08/2002 bis 02/2006) (chemonaiv: n=32, 62,4 +/- 13,3 Jahre; neoadjuvante Chemotherapie: n=39, 62 +/- 10,2 Jahre und adjuvante Chemotherapie: n=29, 61,2 +/- 10,8 Jahre) wurde aus den intraoperativ gewonnenen Leberresektaten retrospektiv der NAFLD-Score nach Kleiner et al. (Hepatology 2005) erhoben. Zur morphologischen Beurteilung wurde die Hämatoxilin-Eosin-Färbung verwendet, während der Fibrosegrad anhand der Ladewig-Färbung und der Siderosegrad mittels der Berliner-Blau-Färbung bestimmt wurden.Anschließend erfolgte eine statische Analyse der Häufigkeit und Relevanz der Steatohepatitis in den einzelnen Gruppen im Hinblick auf Verlauf und Outcome der Leberresektion. Hierbei wurden multivariate Regression, Kruskal-Wallis-Test, chi2-Test oder Mann-Whitney-U-Test (p<0,05) verwendet. Ergebnisse: Im vorliegenden Patientengut zeigten 7 Patienten eine ausgeprägte NASH, während bei 69% der Patienten keinerlei Veränderungen im Sinne einer NASH vorlagen. Die subjektive Gesamtbeurteilung der Pathologen und der errechnete NASH-Score eine Übereinstimmung in 92%. (Cohen´s kappa 0,82; 95%-Konfidenzintervall [0,71-0,93]). Hinsichtlich des NASH-Score (p=0,462) oder seiner Komponenten konnten keine Unterschiede in Abhängigkeit vom Zeitpunkt der Chemotherapie (Chemonaiv/ neoadjuvant/ adjuvant) gefunden werden. Eine Analyse in Abhängigkeit der verwendeten Chemotherapeutika zeigte keine Unterschiede für den Gesamt-Score (p=0,897), jedoch signifikante Unterschiede für einzelne Komponenten: Portale Entzündung (p=0,045) und Vorliegen von Microgranulomen (p<0,001). Auch eine multivariate Analyse konnte weder den Einfluss von Substanz noch Zeitpunkt der Chemotherapie auf die Entwicklung einer NASH (p zwischen 0,35 und 0,92) nachweisen.Die Analyse des perioperativen Verlaufs (Transfusionsbedarf, Radikalität, Komplikationen, Liegedauer, postoperative Leberfunktion, Krankenhausmortalität) ergab keine signifikanten Unterschiede für Patienten mit oder ohne NASH. Schlussfolgerung: Das Vorliegen einer Steatohepatitis in unserem Patientengut war eine seltene Diagnose, die nicht in Zusammenhang mit Zeitpunkt der Chemotherapie oder verwendetem Chemotherapeutikum stand. Selbst das Vorliegen einer NASH scheint keinen relevanten Einfluss auf den perioperativen Verlauf oder das Outcome nach Leberresektion zu haben.
Nucleation experiments starting from the reaction of OH radicals with SO2 have been performed in the IfT-LFT flow tube under atmospheric conditions at 293±0.5 K for a relative humidity of 13–61%. The presence of different additives (H2, CO, 1,3,5-trimethylbenzene) for adjusting the OH radical concentration and resulting OH levels in the range (4–300) ×105 molecule cm -3 did not influence the nucleation process itself. The number of detected particles as well as the threshold H2SO4 concentration needed for nucleation was found to be strongly dependent on the counting efficiency of the used counting devices. High-sensitivity particle counters allowed the measurement of freshly nucleated particles with diameters down to about 1.5 nm. A parameterization of the experimental data was developed using power law equations for H2SO4 and H2O vapour. The exponent for H2SO4 from different measurement series was in the range of 1.7–2.1 being in good agreement with those arising from analysis of nucleation events in the atmosphere. For increasing relative humidity, an increase of the particle number was observed. The exponent for H2O vapour was found to be 3.1 representing an upper limit. Addition of 1.2×1011 molecule cm -3 or 1.2×1012 molecule cm -3 of NH3 (range of atmospheric NH3 peak concentrations) revealed that NH3 has a measureable, promoting effect on the nucleation rate under these conditions. The promoting effect was found to be more pronounced for relatively dry conditions, i.e. a rise of the particle number by 1–2 orders of magnitude at RH = 13% and only by a factor of 2–5 at RH = 47% (NH3 addition: 1.2×1012 molecule cm -3). Using the amine tert-butylamine instead of NH3, the enhancing impact of the base for nucleation and particle growth appears to be stronger. Tert-butylamine addition of about 1010 molecule cm -3 at RH = 13% enhances particle formation by about two orders of magnitude, while for NH3 only a small or negligible effect on nucleation in this range of concentration appeared. This suggests that amines can strongly influence atmospheric H2SO4-H2O nucleation and are probably promising candidates for explaining existing discrepancies between theory and observations.
We report the first measurements of 1,1,1,2,3,3,3-heptafluoropropane (HFC-227ea), a substitute for ozone depleting compounds, in remote regions of the atmosphere and present evidence for its rapid growth. Observed mixing ratios ranged from below 0.01 ppt in deep firn air to 0.59 ppt in the northern mid-latitudinal upper troposphere. Firn air samples collected in Greenland were used to reconstruct a history of atmospheric abundance. Year-on-year increases were deduced, with acceleration in the growth rate from 0.026 ppt per year in 2000 to 0.057 ppt per year in 2007. Upper tropospheric air samples provide evidence for a continuing growth until late 2009. Fur- thermore we calculated a stratospheric lifetime of 370 years from measurements of air samples collected on board high altitude aircraft and balloons. Emission estimates were determined from the reconstructed atmospheric trend and suggest that current "bottom-up" estimates of global emissions for 2005 are too high by more than a factor of three.
We report the first measurements of 1,1,1,2,3,3,3-heptafluoropropane (HFC-227ea), a substitute for ozone depleting compounds, in air samples originating from remote regions of the atmosphere and present evidence for its accelerating growth. Observed mixing ratios ranged from below 0.01 ppt in deep firn air to 0.59 ppt in the current northern mid-latitudinal upper troposphere. Firn air samples collected in Greenland were used to reconstruct a history of atmospheric abundance. Year-on-year increases were deduced, with acceleration in the growth rate from 0.029 ppt per year in 2000 to 0.056 ppt per year in 2007. Upper tropospheric air samples provide evidence for a continuing growth until late 2009. Furthermore we calculated a stratospheric lifetime of 370 years from measurements of air samples collected on board high altitude aircraft and balloons. Emission estimates were determined from the reconstructed atmospheric trend and suggest that current "bottom-up" estimates of global emissions for 2005 are too high by a factor of three.
Das Modifizierte Vacciniavirus Ankara (MVA) entstand nach mehr als 500 Passagen des Chorioallantois Vacciniavirus Ankara (CVA) auf Hühnerembryofibroblasten. Mit der Passagierung ging u.a. der Verlust zahlreicher Vacciniavirus Virulenzfaktoren einher, wodurch MVA einen hochattenuierten Phänotyp aufweist. Bei mangelnder Pathogenität für humane Organismen verfügt das MVA jedoch über eine vollständig erhaltene Genexpression inklusive integrierter Fremdgene. Hierdurch bedingt ist MVA ein vielversprechender Kandidat nicht nur als Pockenimpfstoff der dritten Generation, sondern auch als Vektorvakzine gegen zahlreiche Infektionskrankheiten sowie in der Tumor-assoziierten Immunotherapie. Ein wesentliches Charakteristikum der Attenuierung von MVA ist seine fehlende Replikationsfähigkeit in humanen Zellen. Bislang ist es jedoch noch nicht möglich gewesen, die hierfür verantwortlichen genetischen Veränderungen eindeutig zuzuordnen. Vorangegangene Arbeiten wiesen darauf hin, dass sich der beschriebene Effekt zumindest teilweise auf die Zeitspanne zwischen zwei Vorläufern des MVA eingrenzen lässt. So zeigten sich humane HeLa Zellen für das CVA 152 permissiv, während gegenüber dem CVA 386 nur noch eine Semipermissivität bestand. Mit Hilfe einer vergleichenden Sequenzanalyse von CVA 152 und CVA 386 konnten verschiedene Deletionen identifiziert werden, deren Auftreten potentiell verantwortlich für den veränderten Phänotyp von CVA 386 ist. In diesem Zusammenhang wurden im Rahmen dieser Arbeit die Gene C12L, C14L, C15L und C16L der Deletion I und die Gene M1L, M2L und der OLR 037 der Deletion II charakterisiert. Durch Transfektion von Expressionsplasmiden wurden die entsprechenden Proteine bezüglich ihrer Expression und posttranslationalen Modifikation, sowie ihrer subzellulären Verteilung untersucht. So ließ sich für das Protein M2 eine posttranslationale N-Glykosylierung und die Lokalisation innerhalb des trans-medialen Golgiapparats nachweisen. Zusätzlich konnte eine Sekretion des M2 Proteins im Zellüberstand transfizierter 293T-Zellen gezeigt, sowie die bereits publizierte Inhibition der NF-:B-Aktivierung durch extrazellulär zugegebenes M2 Protein eingeleitet werden. Die Proteine C14 und C15 zeigten sich in der Laserscanmikroskopie mitochondrial lokalisiert; C16 dagegen kolokalisierte neben einer hauptsächlich intranukleären Verteilung zusätzlich mit F-Aktin. Ferner ergaben sich für die Proteine C14 und C15 erste Hinweise auf eine inhibitorische Funktion gegenüber Staurosporin-induzierter Apoptose.
A comprehensive evaluation of seasonal backward trajectories initialized in the northern hemisphere lowermost stratosphere (LMS) has been performed to investigate the factors that determine the temporal and spatial structure of troposphere-to-stratosphere-transport (TST) and it’s impact on the LMS. In particular we explain the fundamental role of the transit time since last TST (tTST) for the chemical composition of the LMS. According to our results the structure of the LMS can be characterized by a layer with tTST<40 days forming a narrow band around the local tropopause. This layer extends about 30K above the local dynamical tropopause, corresponding to the extratropical tropopause transition layer (ExTL) as identified by CO. The LMS beyond this layer shows a relatively well defined separation as marked by an aprupt transition to longer tTST indicating less frequent mixing and a smaller fraction of tropospheric air. Thus the LMS constitutes a region of two well defined regimes of tropospheric influence. These can be characterized mainly by different transport times from the troposphere and different fractions of tropospheric air. Carbon monoxide (CO) mirrors this structure of tTST due to it’s finite lifetime on the order of three months. Water vapour isopleths, on the other hand, do not uniquely indicate TST and are independent of tTST, but are determined by the Lagrangian Cold Point (LCP) of air parcels. Most of the backward trajectories from the LMS experienced their LCP in the tropics and sub-tropics, and TST often occurs 20 days after trajectories have encountered their LCP. Therefore, ExTL properties deduced from CO and H2O provide totally different informations on transport and particular TST for the LMS.
Two different single particle mass spectrometers were operated in parallel at the Swiss High Alpine Research Station Jungfraujoch (JFJ, 3580 m a.s.l.) during the Cloud and Aerosol Characterization Experiment (CLACE 6) in February and March 2007. During mixed phase cloud events ice crystals from 5–20 micro m were separated from larger ice aggregates, non-activated, interstitial aerosol particles and supercooled droplets using an Ice-Counterflow Virtual Impactor (Ice-CVI). During one cloud period supercooled droplets were additionally sampled and analyzed by changing the Ice-CVI setup. The small ice particles and droplets were evaporated by injection into dry air inside the Ice-CVI. The resulting ice and droplet residues (IR and DR) were analyzed for size and composition by the two single particle mass spectrometers: a custom-built Single Particle Laser-Ablation Time-of-Flight Mass Spectrometer (SPLAT) and a commercial Aerosol Time-of-Flight Mass Spectrometer (ATOFMS, TSI Model 3800). During CLACE 6 the SPLAT instrument characterized 355 individual IR that produced a mass spectrum for at least one polarity and the ATOFMS measured 152 IR. The mass spectra were binned in classes, based on the combination of dominating substances, such as mineral dust, sulfate, potassium and elemental carbon or organic material. The derived chemical information from the ice residues is compared to the JFJ ambient aerosol that was sampled while the measurement station was out of clouds (several thousand particles analyzed by SPLAT and ATOFMS) and to the composition of the residues of supercooled cloud droplets (SPLAT: 162 cloud droplet residues analyzed, ATOFMS: 1094). The measurements showed that mineral dust was strongly enhanced in the ice particle residues. Close to all of the SPLAT spectra from ice residues did contain signatures from mineral compounds, albeit connected with varying amounts of soluble compounds. Similarly, close to all of the ATOFMS IR spectra show a mineral or metallic component. Pure sulfate and nitrate containing particles were depleted in the ice residues. Sulfate and nitrate was found to dominate the droplet residues (~90% of the particles). The results from the two different single particle mass spectrometers were generally in agreement. Differences in the results originate from several causes, such as the different wavelength of the desorption and ionisation lasers and different size-dependent particle detection efficiencies.
Background: The integration of the non-cross-resistant chemotherapeutic agents capecitabine and vinorelbine into an intensified dose-dense sequential anthracycline- and taxane-containing regimen in high-risk early breast cancer (EBC) could improve efficacy, but this combination was not examined in this context so far. Methods: Patients with stage II/IIIA EBC (four or more positive lymph nodes) received post-operative intensified dose-dense sequential epirubicin (150mg/m2 every 2 weeks) and paclitaxel (225mg/m2 every 2 weeks) with filgrastim and darbepoetin alfa, followed by capecitabine alone (dose levels 1 and 3) or with vinorelbine (dose levels 2 and 4). Capecitabine was given on days 1-14 every 21 days at 1000 or 1250 mg/m2 twice daily (dose levels 1/2 and 3/4, respectively). Vinorelbine 25 mg/m2 was given on days 1 and 8 of each 21-day course (dose levels 2 and 4). Results: Fifty-one patients were treated. There was one dose-limiting toxicity (DLT) at dose level 1. At dose level 2 (capecitabine and vinorelbine), five of 10 patients experienced DLTs. Therefore evaluation of vinorelbine was abandoned and dose level 3 (capecitabine monotherapy) was expanded. Hand-foot syndrome and diarrhoea were dose limiting with capecitabine 1250 mg/m2 twice daily. At 35.2 months' median follow-up, the estimated 3-year relapse-free and overall survival rates were 82% and 91%, respectively. Administration of capecitabine monotherapy after sequential dose-dense epirubicin and paclitaxel is feasible in node-positive EBC, while the combination of capecitabine and vinorelbine as used here caused more DLTs. Trial registration: Current Controlled Trials ISRCTN38983527.
Background: European robins, Erithacus rubecula, show two types of directional responses to the magnetic field: (1) compass orientation that is based on radical pair processes and lateralized in favor of the right eye and (2) so-called 'fixed direction' responses that originate in the magnetite-based receptors in the upper beak. Both responses are light-dependent. Lateralization of the 'fixed direction' responses would suggest an interaction between the two magnetoreception systems. Results: Robins were tested with either the right or the left eye covered or with both eyes uncovered for their orientation under different light conditions. With 502 nm turquoise light, the birds showed normal compass orientation, whereas they displayed an easterly 'fixed direction' response under a combination of 502 nm turquoise with 590 nm yellow light. Monocularly right-eyed birds with their left eye covered were oriented just as they were binocularly as controls: under turquoise in their northerly migratory direction, under turquoise-and-yellow towards east. The response of monocularly left-eyed birds differed: under turquoise light, they were disoriented, reflecting a lateralization of the magnetic compass system in favor of the right eye, whereas they continued to head eastward under turquoise-and-yellow light. Conclusion: 'Fixed direction' responses are not lateralized. Hence the interactions between the magnetite-receptors in the beak and the visual system do not seem to involve the magnetoreception system based on radical pair processes, but rather other, non-lateralized components of the visual system.
Rezension zu: Gaye Suse Kromer: Obszöne Lust oder etablierte Unterhaltung? Zur Rezeption pornografischer Filme. Hamburg: Diplomica Verlag 2008. 232 Seiten, ISBN 978-3-8366-6730-2, € 39,50 Die Autorin befragte vier Männer und vier Frauen zu ihrer Pornografienutzung und ihren Rezeptionserfahrungen mit dem pornografischen Film Adrenalin (Italien 2003). Selbst nach Maßstäben einer Qualifikationsarbeit überzeugen die Überblickskapitel zu Rechtsgrundlagen, Definition und Geschichte des pornografischen Films, zur theoretischen und fachlichen Verortung nicht; diese werden später auch nicht auf die Interviews bezogen. Den Hauptteil stellen die Interviews dar. Der Autorin gelingt es nur teilweise – so bei der Entwicklung der Leitfragen –, stringente Kategorien für die Auswertung der qualitativen Interviews zu entwickeln. Die im Anhang des Buches abgedruckten Interviews stellen eine interessante Quelle für die Erforschung der Rezeption pornografischer Filme dar.
Im Rahmen der vorliegenden Arbeit wurde eine allgemein anwendbare Methode zur Identifizierung und Quantifizierung kleiner Moleküle mittels MALDI-TOF-MS entwickelt. Dabei wurden zahlreiche Analyten, wie unterschiedliche Arzneistoffe, Neurotransmitter und Lebensmittelinhaltsstoffe in verschiedenen Probenmatrizes analysiert. Bei den verwendeten Matrizes wurden mit a-Cyano-4-Hydroxy-Zimtsäure (CHCA) die besten Ergebnisse erzielt. Es zeigte sich jedoch, dass die Probenpräparation wichtiger war als die Wahl der Matrix, da auch mit anderen Matrizes bei optimierter Probenpräparation sensitive Messungen im niedrigen Massenbereich möglich waren. Insbesondere eine schnelle Trocknung des Probenspots, und damit verbunden die Bildung kleiner Kristalle, ist für die Analytik kleiner Moleküle hilfreich. Bei gleichzeitiger Verwendung geringer Matrixkonzentrationen und geringer Laserintensität konnte so der störende Matrixhintergrund minimiert werden. Eine noch stärkere Suppression der Matrixsignale bei gleichzeitiger Anreicherung der Analyten auf dem Probenspot konnte durch eine Dünnschichtpräparation (TLP) mit CHCA und Nitrozellulose erreicht werden. Allerdings war die TLP für eine automatische Quantifizierung kleiner Moleküle nur bedingt geeignet. Die für kleine Moleküle so wichtige Quantifizierung war durch Verwendung einer optimierten schnell trocknenden Dried Droplet Präparation (DDP) möglich. Die Kombination dieser optimierten DDP mit ausreichend aufsummierten Einzelschussspektren bei gleichzeitiger Verwendung eines internen Standards (IS) ermöglichte eine valide Quantifizierung mit guter Präzision, Linearität und Richtigkeit. Dabei erfüllten die quantifizierten Analyten die Vorgaben der FDA für Präzision und Richtigkeit. Diese Quantifizierungsmethode wurde an Mischungen unterschiedlicher Arzneistoffe, sowohl in Standardlösungen als auch in humanem Plasma, erfolgreich durchgeführt. Dabei genügte ein einziger interner Standard, um alle Arzneistoffe der Mischung schnell und sensitiv zu bestimmen (Bestimmungsgrenze 1-5 ng/ml). Weiterhin war es möglich, den Wirkstoff einer pharmazeutischen Tablette ohne aufwändige Probenvorbereitung schnell und genau zu bestimmen. Dass MALDI über eine hohe Salztoleranz verfügt, wurde bei der Bestimmung von Acetylcholin (ACh) und Cholin (Ch) in Mikrodialysaten bestätigt. Trotz des hohen Salzgehalts der Proben (~150 mM) war eine direkte Messung ohne vorherige Aufarbeitung möglich. Dabei lag die Nachweis- und Bestimmungsgrenze für ACh bei 0,3 bzw. 1 fmol/µl und für Ch bei 20 bzw. 100 fmol/µl. Nach den Standardlösungen wurden in-vivo Mikrodialysate aus dem rechten Striatum verschiedener CD1-Mäuse quantifiziert. Durch Verbindung der Dialysesonde mit einem MALDI-Spotter konnte außerdem die zeitliche Auflösung der Dialyse deutlich verbessert werden. Ein weiterer Anwendungsbereich stellte die Bestimmung von Melamin in Milch und Milchpulver dar. Nach einfacher Probenvorbereitung war es möglich, Melamin mit einer Bestimmungsgrenze von 0,25 ppm in Milchpulver bzw. 0,625 ppm in Milch direkt und schnell zu quantifizieren. Damit wurden die geforderten Grenzwerte von 1 ppm für Babynahrung bzw. 2,5 ppm für übrige Lebensmittel leicht erreicht. Als letzte Methode wurden verschiedene Inhaltstoffe in Energy Drinks bestimmt. Bei Verwendung von Theophyllin als IS konnte so neben Koffein auch Niacin und Pyridoxin erfolgreich und ohne Probenvorbereitung schnell quantifiziert werden. Zusammenfassend zeigt diese Arbeit, dass MALDI auch für die Analytik kleiner Moleküle gut geeignet ist. Neben der Identifizierung der Analyten war auch die Quantifizierung mit guter Linearität, Reproduzierbarkeit und Richtigkeit möglich. Dabei konnten mit der Standardmatrix CHCA verschiedenste niedermolekulare Analyten in unterschiedlichsten Probenmatrizes bestimmt werden. Im direkten Vergleich war die Sensitivität der vorgestellten MALDI-Methoden mindestens vergleichbar, wenn nicht gar besser als bestehende LC-MS-Methoden. Da auf den Einsatz einer LC verzichtet werden kann, ermöglich MALDI einen sehr viel höheren Probendurchsatz. Zudem war keine spezielle Matrix, besondere Geräte oder zeitaufwändige Probenvorbereitung und Präparation notwendig.
In der Arbeit wird Fuzzy-Regression als mögliche ökonometrische Analysemethode bei fehlerbehafteten Daten modelliert und erprobt. Dazu ist die interpretatorische Lücke zu schließen, die einerseits zwischen den Datenproblemen in empirischen Datensätzen und ihrer Modellierung als Fuzzy-Daten und andererseits zwischen der Modellierung der Fehlereinflüsse in den Fuzzy-Daten und den Aussagen und Analysen besteht, die auf der Basis einer Fuzzy-Regression über die vorliegenden Daten getroffen werden können. Da bereits eine Vielzahl von Ansätzen zur Fuzzy-Regression entwickelt wurden, wird als das Hauptproblem nicht die Modellierung der Fuzzy-Methoden als solcher gesehen, sondern vielmehr die fehlende Vorstellung über die mögliche Bedeutung der Fuzzy-Modellierungen im konkreten Anwendungsfall. Die Arbeit vollzieht deshalb im Sinne einer Machbarkeitsstudie die verschiedenen Schritte von den Fehlereinflüssen in wirtschaftsbezogenen Datensätzen und deren Modellierung als Fuzzy-Daten bis hin zur explorativen Analyse mit Fuzzy-Regression nach. Dabei werden für jeden der Schritte exemplarische Beispiele ausgewählt, um die Denkweise der Fuzzy-Modellierung auszuarbeiten und die Möglichkeiten und Grenzen der Methoden aufzuzeigen. Die Untersuchungen zeigen, dass vor allem die Fuzzy-Modellierung von Fehlereinflüssen in den Merkmalsdaten und die Beschreibung von gleichförmigen Strukturen in den Fehlereinflüssen durch Fehlerszenarien als Analyseinstrumente geeignet sind, da sie eine Grundlage für eine weitergehende Untersuchung der Fehlereinflüsse bilden. Als Ausblick auf ein Schätzmodell für Fuzzy-Regression bei Fehlern in den Daten werden abschließend einige Ansätze für die Einbettung des Regressionsproblems für Fuzzy-Merkmalsvariablen in die Verteilungsmodelle für Fuzzy-Zufallsvariablen vorgestellt, die auf der Konstruktion der Fehlerszenarien basieren.
Innerhalb der letzten 30 Jahre haben sich photoaktivierbare Verbindungen („caged compounds“) zu einem äußerst wertvollen Werkzeug entwickelt. Seit der erstmals publizierten Anwendung von lichtaktivierbarem ATP im Jahre 1978 durch Hoffman et al. konnten viele neue Erkenntnisse im Bereich der Physiologie, Molekularbiologie und Biochemie mit Hilfe von photoaktivierbaren Verbindungen gewonnen werden. Hierunter versteht man Substanzen, deren biologische Wirksamkeit temporär inaktiviert ist, jedoch durch Bestrahlung mit Licht wiederhergestellt werden kann. Die Inaktivierung wird durch spezielle, lichtreaktive Chromophore erreicht, sogenannten photolabilen Schutzgruppen („cages“). Der Einsatz dieser Technik zur Aktivierung von Nukleinsäuren eröffnet ein weites Feld an Anwendungsmöglichkeiten. So ist auf diese Weise eine orts- und zeitaufgelöste Kontrolle der Aktivität von z.B. Antisense-DNA, siRNA oder Aptameren durch Licht möglich. Während der vorliegenden Doktorarbeit konnten zwei neuartige photolabil geschützte Desoxythymidine als Phosphoramidite zum Einsatz in der automatisierten DNA-Synthese dargestellt werden. Hierfür wurden jeweils NDBF-OH bzw. pHP-OH in O4-Position der Nukleobase eingeführt. Es konnte gezeigt werden, dass sich die beiden Nukleoside nach ihrem Einbau in DNA mittels UV-Licht entschützen lassen. Die photolabilen Schutzgruppen besaßen jedoch nur eine geringe chemische Stabilität unter verschiedenen basischen Abspaltbedingungen und sind deshalb nicht für die automatisierte DNA-Festphasensynthese unter Standardbedingungen geeignet. Durch Homologisierung der NDBF-Gruppe mit einer zusätzlichen Methyleneinheit zu hNDBF-OH wurde eine verbesserte Variante synthetisiert, welche eine ausreichende Basenstabilität und hervorragende photochemische Eigenschaften aufweist. Wie im Arbeitskreis Heckel gezeigt werden konnte, ist mittels in O6-Position hNDBF-modifiziertem Desoxyguanosin sowohl die DNA-Festphasensynthese unter Standardbedingungen möglich, als auch die spätere Photolyse dieser Schutzgruppe bei einer Wellenlänge von 420 nm. Hierdurch eröffnet sich zum ersten Mal die Möglichkeit, bei Verwendung von beispielsweise NPP und hNDBF, photolabil geschützte Bereiche in Nukleinsäuren wellenlängenselektiv durch Licht unterschiedlicher Wellenlänge zu aktivieren. In einem weiteren Projekt wurden erfolgreich photoaktivierbare Varianten des bivalenten Fusionsaptamers HD1-22 getestet. HD1-22 besitzt zwei Aptamerdomänen, HD1 und HD22, welche jeweils an eine der beiden Exosites I bzw. II von Thrombin binden. Im konkreten Fall konnten wir die Blutgerinnungsaktivität von Thrombin unter Verwendung einer photolabil geschützten Aptamersequenz von vollständig aktiv zu komplett inaktiv modulieren: Vor der UV-Bestrahlung war lediglich die Exosite II durch die HD22-Domäne blockiert. Dies erlaubte keinerlei Bindung des natürlichen Antikoagulans Antithrombin III an Thrombin – weder durch Heparin vermittelt noch ohne Beteiligung von Heparin. Der Zugang zur Exosite I war hingegen nicht eingeschränkt, die Blutgerinnungsaktivität des Thrombins somit durch die Rekrutierung von Fibrinogen an die Exosite I vollständig aktiv und nicht durch Antithrombin inhibierbar. Durch lichtvermittelte Entschützung der HD1-Domäne konnte nun eine Inaktivierung der Exosite I erfolgen, welche durch die hohe Bindungsaffinität der HD22-Aptamerdomäne stärker ausfiel als bei der ausschließlichen Verwendung eines HD1 Aptamers. Die koagulative Wirkung des Thrombins wurde somit vollständig aufgehoben. Im dritten Teil dieser Arbeit wurde der Grundstein für die Entwicklung eines kovalenten, lichtaktivierbaren Thrombin-Thrombinaptamer-Reagenzes gelegt. Dieses könnte zur gezielten Thromboembolisierung bei bestimmten malignen Tumorerkrankungen eingesetzt werden, um das entartete Gewebe von der Blut- und damit Nährstoffversorgung abzuschneiden. Zudem könnte so möglicherweise während einer Tumorexzision die Freisetzung von metastasierenden Krebszellen unterbunden werden. Das Reagenz besteht aus der von Heckel et al. publizierten „ausschaltbaren“ Variante des HD1-Aptamers. Diese besitzt einen photolabil geschützten Gegenstrang. Solange die Schutzgruppe intakt ist, bindet das Aptamer an die Exosite I von Thrombin und verhindert auf diese Weise die Rekrutierung von Fibrinogen. Wird die Sequenz jedoch mit UV-Licht bestrahlt, so erfolgt die Entschützung des Gegenstrangs und durch die folgende Basenpaarung eine Inaktivierung des HD1 Aptamers. Hieraus resultiert die Freisetzung von aktivem Thrombin, welches direkt zur Ausbildung eines Thrombus führt. Durch die – ebenfalls photospaltbare – kovalente Anbindung des „ausschaltbaren“ HD1 an die Proteinoberfläche werden eine vorzeitige Dissoziation des Aptamers und damit eine vorzeitige Wiederherstellung der Proteinaktivität verhindert.
Background: Pythium ultimum (P. ultimum) is a ubiquitous oomycete plant pathogen responsible for a variety of diseases on a broad range of crop and ornamental species. Results: The P. ultimum genome (42.8 Mb) encodes 15,290 genes and has extensive sequence similarity and synteny with related Phytophthora species, including the potato blight pathogen Phytophthora infestans. Whole transcriptome sequencing revealed expression of 86% of genes, with detectable differential expression of suites of genes under abiotic stress and in the presence of a host. The predicted proteome includes a large repertoire of proteins involved in plant pathogen interactions although surprisingly, the P. ultimum genome does not encode any classical RXLR effectors and relatively few Crinkler genes in comparison to related phytopathogenic oomycetes. A lower number of enzymes involved in carbohydrate metabolism were present compared to Phytophthora species, with the notable absence of cutinases, suggesting a significant difference in virulence mechanisms between P. ultimum and more host specific oomycete species. Although we observed a high degree of orthology with Phytophthora genomes, there were novel features of the P. ultimum proteome including an expansion of genes involved in proteolysis and genes unique to Pythium. We identified a small gene family of cadherins, proteins involved in cell adhesion, the first report in a genome outside the metazoans. Conclusions: Access to the P. ultimum genome has revealed not only core pathogenic mechanisms within the oomycetes but also lineage specific genes associated with the alternative virulence and lifestyles found within the pythiaceous lineages compared to the Peronosporaceae.
Hereditary angioedema (C1 inhibitor deficiency, HAE) is associated with intermittent swellings which are disabling and may be fatal. Effective treatments are available and these are most useful when given early in the course of the swelling. The requirement to attend a medical facility for parenteral treatment results in delays. Home therapy offers the possibility of earlier treatment and better symptom control, enabling patients to live more healthy, productive lives. This paper examines the evidence for patient-controlled home treatment of acute attacks ('self or assisted administration') and suggests a framework for patients and physicians interested in participating in home or self-administration programmes. It represents the opinion of the authors who have a wide range of expert experience in the management of HAE.
Background: The human chromosomal region 9p21.3 has been shown to be strongly associated with Coronary Heart Disease (CHD) in several Genome-wide Association Studies (GWAS). Recently, this region has also been shown to be associated with Aggressive Periodontitis (AgP), strengthening the hypothesis that the established epidemiological association between periodontitis and CHD is caused by a shared genetic background, in addition to common environmental and behavioural risk factors. However, the size of the analyzed cohorts in this primary analysis was small compared to other association studies on complex diseases. Using our own AgP cohort, we attempted to confirm the described associations for the chromosomal region 9p21.3. Methods: We analyzed our cohort consisting of patients suffering from the most severe form of AgP, generalized AgP (gAgP) (n = 130) and appropriate periodontally healthy control individuals (n = 339) by genotyping four tagging SNPs (rs2891168, rs1333042, rs1333048 and rs496892), located in the chromosomal region 9p21.3, that have been associated with AgP. Results: The results confirmed significant associations between three of the four SNPs and gAgP. The combination of our results with those from the study which described this association for the first time in a meta-analysis of the four tagging SNPs produced clearly lower p-values compared with the results of each individual study. According to these results, the most plausible genetic model for the association of all four tested SNPs with gAgP seems to be the multiplicative one. Conclusion: We positively replicated the finding of an association between the chromosomal region 9p21.3 and gAgP. This result strengthens support for the hypothesis that shared susceptibility genes within this chromosomal locus might be involved in the pathogenesis of both CHD and gAgP.
Ziel dieser Arbeit war es, zwei Atemtestverfahren in der Diagnostik der bakteriellen Fehlbesiedelung im Dünndarm bei Kindern mit Zystischer Fibrose miteinander zu vergleichen. Der moderne 13C-Xylose-Atemtest wurde dem bisher etablierten H2-Glukose-Atemtest gegenübergestellt. Dabei sollte zusätzlich die Suszeptibilität der CF-Patienten für eine IBF eruiert werden. Die Probanden absolvierten einen kombinierten 13C-Xylose-/H2-Glukose-Atemtest. Retrospektiv wurden zunächst die H2-Ergebnisse der einzelnen Probandengruppen analysiert und dann den maximalen PDR-, cPDR- und den DOB-Werten gegenübergestellt. Die Ergebnisse der aktuellen Studie sprechen für die Prädisposition der CF-Patienten, eine IBF zu entwickeln. Kliniker sollten aber bei der Interpretation der Atemtestergebnisse stets die beeinflussenden Faktoren, die vor allem die Erkrankung der Mukoviszidose mit sich bringt, berücksichtigen und therapeutische Konsequenzen vorsichtig umsetzen. So können die erhöhten Wasserstoffkonzentrationen im H2-Glukose-Atemtest bei CF-Kindern nicht ausschließlich einer IBF zugeschrieben werden. Die hohen Nüchternwerte sind auch Ausdruck der allgemeinen Maldigestion, Malabsorption und der intestinalen Motilitätsstörung, die bei diesen Patienten vorherrschen. Der 13C-Xylose-Atemtest lieferte in den Gruppen der Erwachsenen und Kinder ohne Zystische Fibrose repräsentative Ergebnisse, was für zukünftige Nutzung im Rahmen der Diagnostik einer IBF spricht. Bei heranwachsenden Kindern ist lediglich die altersabhängige endogene CO2-Produktion und orozökale Transitzeit zu berücksichtigen. Für die Diagnostik einer IBF speziell bei Patienten mit Mukoviszidose erscheint uns der 13C-Xylose-Atemtest nicht geeignet, was wir hauptsächlich der krankheitsspezifischen generellen Malassimilation, der Malabsorption und der intestinalen Motilitätsstörung zuschreiben. Wir beführworten daher aktuell weiterhin unter Berücksichtigung der ihn beeinflussenden Faktoren die Anwendung des H2-Glukose-Atemtests in der gastroenterologischen Diagnostik einer IBF wegen der einfachen, preiswerten und nichtinvasiven Anwendbarkeit. Weitere Studien sollen in Zukunft klären, ob der 13C-Xylose-Atemest trotz seiner hohen Kosten regelmäßig mit Nutzen im klinischen Alltag anzuwenden ist. Im Vergleich mit dem Goldstandard des Jejunalaspirates müssen Sensitivität und Spezifität des Isotopen-Atemtests in zukünftigen Studien erarbeitet werden.
SUMMARY RECOMMENDATIONS 1. One of the major lessons from the current financial crisis refers to the systemic dimension of financial risk which had been almost completely neglected by bankers and supervisors in the pre-2007 years. 2. Accordingly, the most needed change in financial regulation, in order to avoid a repetition of such a crisis in the future, consists of influencing individual bank behaviour such that systemic risk is decreased. This objective is new and distinct from what Basle II was intended to achieve. 3. It is important, therefore, to evaluate proposed new regulatory instruments on the ground of whether or not they contribute to a reduction, or containment of systemic risk. We see two new regulatory measures of paramount importance: the introduction of a Systemic Risk Charge (SRC), and the implementation of a transparent bank resolution regime. Both measures complement each other, thus both have to be realized to be effective. 4. We propose a Systemic Risk Charge (SRC), a levy capturing the contribution of any individual bank to the overall systemic risk which is distinct from the institution’s own default risk. The SRC is set up such that the more systemic risk a bank contributes, the higher is the cost it has to bear. Therefore, the SRC serves to internalize the cost of systemic risk which, up to now, was borne by the taxpayer. 5. Major details of our SRC refer to the use of debt that may be converted into equity when systemic risk threatens the stability of the banking system. Also, the SRC raises some revenues for government. 6. The SRC has to be compared to several bank levies currently debated. The Financial Transaction Tax (FTT) does not directly address systemic risk and is therefore inferior to a SRC. Nevertheless, a FTT may offer the opportunity to subsidize on-exchange trading at the expense of off-exchange (over-the-counter, OTC) transactions, thereby enhancing financial market stability. The Financial Activity Tax (FAT) is similar to a VAT on financial services. It is the least adequate instrument among all instruments discussed above to limit systemic risk. 7. Bank resolution regime: No instrument to contain systemic risk can be effective unless the restructuring of bank debt, and the ensuing loss given default to creditors, is a real possibility. As the crisis has taught, bank restructuring is very difficult in light of contagion risk between major banks. We therefore need a regulatory procedure that allows winding down banks, even large banks, on short notice. Among other things, the procedure will require to distinguish systemically relevant exposures from those that are irrelevant. Only the former will be saved with government money, and it will then be the task of the supervisor to ensure a sufficient amount of nonsystemically relevant debt on the balance sheet of all banks. 8. Further issues discussed in this policy paper and its appendices refer to the necessity of a global level playing field, or the lack thereof, for these new regulatory measures; the convergence of our SRC proposal with what is expected to be long-term outcome of Basle III discussions; as well as the role of global imbalances.
Many studies show that most people are not financially literate and are unfamiliar with even the most basic economic concepts. However, the evidence on the determinants of economic literacy is scant. This paper uses international panel data on 55 countries from 1995 to 2008, merging indicators of economic literacy with a large set of macroeconomic and institutional variables. Results show that there is substantial heterogeneity of financial and economic competence across countries, and that human capital indicators (PISA test scores and college attendance) are positively correlated with economic literacy. Furthermore, inhabitants of countries with more generous social security systems are generally less literate, lending support to the hypothesis that the incentives to acquire economic literacy are related to the amount of resources available for private accumulation. JEL Classification: E2, D8, G1
Die Notwendigkeit der ipsilateralen Adrenalektomie als obligater Bestandteil einer Tumornephrektomie beim Nierenzellkarzinom wurde in der Literatur kontrovers diskutiert. Das Ziel der vorliegenden Studie war es, durch einen Vergleich von tumornephrektomierten Patienten mit und ohne Nebennierenbefall Parameter zu ermitteln, die eine präoperative Abschätzung des Nebennierenbefalls erlauben, und somit als Entscheidungshilfe zur Durchführung der Adrenalektomie im Rahmen einer Tumornephrektomie dienen können. In unserer Studie wurden insgesamt 250 Patienten mit Nierenzellkarzinom erfasst, die zwischen 1992 und 2001 in der Klinik für Urologie und Kinderurologie Prof. Dr. med. Dietger Jonas, Johann Wolfgang Goethe – Universität Frankfurt am Main operiert wurden. Dabei wurde in allen Fällen die radikale Tumornephrektomie nach Robson inklusive ipsilateraler Adrenalektomie durchgeführt. Alle Operationspräparate wurden im Senckenbergischen Institut für Pathologie Prof. Dr. med. M.-L. Hansmann, Frankfurt am Main untersucht und nach der 6. Auflage der TNM-Klassifikation in der von der UICC empfohlenen Weise eingestuft. In 9 der 250 Fälle (3,6 %) wurde ein Nebennierenbefall festgestellt. Statistisch signifikante Ergebnisse konnten für folgende Parameter ermittelt werden: · Präoperativer CT-Befund In der präoperativ durchgeführten CT wurden von 235 als unauffällig eingestuften Fällen 5 pathologische Nebennierenbefunde nicht erkannt (2,13 %). Von 15 als auffällig eingestuften Fällen wurden jedoch 4 als richtig pathologisch erkannt (26,6 %). Es ergaben sich für den Nachweis eines Nebennierenbefalls im CT eine Sensitivität von 44 %, eine Spezifität von 95,4 %, ein positiver prädiktiver Wert von 26,6 %, und ein negativer prädiktiver Wert von 97,8 %. · Nierentumorgröße Es zeigte sich ein Nebennierenbefall erst ab einer Tumorgröße von > 5 cm mit einer Wahrscheinlichkeit von 5,8 % (p = 0,035). · pTNM-Stadium Ein Nebennierenbefall ließ sich erst ab Tumorstadium pT 3a erkennen. Bei pT1- oder pT2-Tumoren war kein Nebennierenbefall festgestellt worden. Bei Patienten ohne Lymphknotenmetastasierung konnte ein Tumorbefall der Nebenniere in 2 von 224 Fällen (0,89 %) gefunden werden. Bei den Patienten mit Lymphknotenmetastasierung lag der Nebennierenbefall bei 3 von 12 Fällen (25 %) für die Nierentumoren mit pN1 und bei 4 von 14 Fällen (28,6 %) bei Nierentumoren mit pN2. Bei Patienten ohne Fernmetastasierung (230 Fälle) ließ sich in 3 Fällen (1,3 %) ein Nebennierenbefall aufweisen; bei vorliegender Fernmetastasierung (20 Fälle) lag der Anteil der befallenen Nebennieren mit 6 Fällen bei 30 %. · Tumorgrading Ein Nebennierenbefall war bei keinem der G1-Tumoren festgestellt worden. Bei 4,4 % der G2-Tumoren (6/136 Fällen) und bei 12,5 % der G3-Tumoren (3/24 Fällen) konnte ein Nebennierenbefall nachgewiesen werden. Da das Grading nur am Nephrektomiepräparat vorgenommen werden kann, spielt es als prädiktiver Parameter keine Rolle. · Infiltration benachbarter Strukturen 0,5 % (1/200 Fällen) der Patienten ohne und 16 % (8/50 Fällen) der Patienten mit einem Tumorthrombus in der V. renalis zeigten auch einen Nebennierenbefall (p = 0,000012). 2,9 % (7/240 Fällen) der Patienten ohne und 20 % (2/10 Fällen) der Patienten mit einer Infiltration in die V. cava zeigten einen Nebennierenbefall (p = 0,044). 14,5 % (9/62 Fällen) der Patienten mit Tumorinfiltration in die Nierenkapsel zeigten einen Nebennierenbefall; keiner der Patienten ohne Nierenkapselinfiltration zeigte einen Nebennierenbefall (p = 0,000002). Zusammenfassend lässt sich festhalten, dass eine ipsilaterale Adrenalektomie heutzutage keine obligate Komponente der Tumornephrektomie sein muß, sondern nur durchgeführt werden sollte, wenn folgende präoperative Bedingungen vorliegen: 1. auffällige präoperative bildgebende Beurteilung der Nebenniere durch Sonographie, Computertomographie oder ggf. Magnetresonanztomographie 2. Größe des Nierentumors > 5 cm unabhängig von der Pollokalisation 3. . Primärtumorstadium >= cT3a 4. CT-graphischer Nachweis von Lymphknoten- und/oder Fernmetastasen 5. CT-graphischer Nachweis einer vaskulären Invasion 6. CT-graphischer Nachweis einer Nierenkapselinfiltration 7. auffälliger intraoperativer Befund
This paper investigates the accuracy and heterogeneity of output growth and inflation forecasts during the current and the four preceding NBER-dated U.S. recessions. We generate forecasts from six different models of the U.S. economy and compare them to professional forecasts from the Federal Reserve’s Greenbook and the Survey of Professional Forecasters (SPF). The model parameters and model forecasts are derived from historical data vintages so as to ensure comparability to historical forecasts by professionals. The mean model forecast comes surprisingly close to the mean SPF and Greenbook forecasts in terms of accuracy even though the models only make use of a small number of data series. Model forecasts compare particularly well to professional forecasts at a horizon of three to four quarters and during recoveries. The extent of forecast heterogeneity is similar for model and professional forecasts but varies substantially over time. Thus, forecast heterogeneity constitutes a potentially important source of economic fluctuations. While the particular reasons for diversity in professional forecasts are not observable, the diversity in model forecasts can be traced to different modeling assumptions, information sets and parameter estimates. JEL Classification: G14, G15, G24
Price pressures
(2010)
We study price pressures in stock prices—price deviations from fundamental value due to a risk-averse intermediary supplying liquidity to asynchronously arriving investors. Empirically, twelve years of daily New York Stock Exchange intermediary data reveal economically large price pressures. A $100,000 inventory shock causes an average price pressure of 0.28% with a half-life of 0.92 days. Price pressure causes average transitory volatility in daily stock returns of 0.49%. Price pressure effects are substantially larger with longer durations in smaller stocks. Theoretically, in a simple dynamic inventory model the ‘representative’ intermediary uses price pressure to control risk through inventory mean reversion. She trades off the revenue loss due to price pressure against the price risk associated with remaining in a nonzero inventory state. The model’s closed-form solution identifies the intermediary’s relative risk aversion and the distribution of investors’ private values for trading from the observed time series patterns. These allow us to estimate the social costs—deviations from constrained Pareto efficiency—due to price pressure which average 0.35 basis points of the value traded. JEL Classification: G12, G14, D53, D61
This paper presents a model to analyze the consequences of competition in order-flow between a profit maximizing stock exchange and an alternative trading platform on the decisions concerning trading fees and listing requirements. Listing requirements, set by the exchange, provide public information on listed firms and contribute to a better liquidity on all trading venues. It is sometimes asserted that competition induces the exchange to lower its level of listing standards compared to a situation in which it is a monopolist, because the trading platform can free-ride on this regulatory activity and compete more aggressively on trading fees. The present analysis shows that this is not always true and depends on the existence and size of gains related to multi market trading. These gains relax competition on trading fees. The higher these gains are, the more the exchange can increase its revenue from listing and trading when it raises its listing standards. For large enough gains from multi-market trading, the exchange is not induced to lower the level of listing standards when a competing trading platform appears. As a second result, this analysis also reveals a cross - subsidization effect between the listing and the trading activity when listing is not competitive. This model yields implications about the fee structures on stock markets, the regulation of listings and the social optimality of competition for volume. JEL Classification: G10, G18, G12
This paper proposes the Shannon entropy as an appropriate one-dimensional measure of behavioural trading patterns in financial markets. The concept is applied to the illustrative example of algorithmic vs. non-algorithmic trading and empirical data from Deutsche Börse's electronic cash equity trading system, Xetra. The results reveal pronounced differences between algorithmic and non-algorithmic traders. In particular, trading patterns of algorithmic traders exhibit a medium degree of regularity while non-algorithmic trading tends towards either very regular or very irregular trading patterns. JEL Classification: C40, D0, G14, G15, G20
How ordinary consumers make complex economic decisions: financial literacy and retirement readiness
(2010)
This paper explores who is financially literate, whether people accurately perceive their own economic decision-making skills, and where these skills come from. Self-assessed and objective measures of financial literacy can be linked to consumers’ efforts to plan for retirement in the American Life Panel, and causal relationships with retirement planning examined by exploiting information about respondent financial knowledge acquired in school. Results show that those with more advanced financial knowledge are those more likely to be retirement-ready.
We examined financial literacy among the young using the most recent wave of the 1997 National Longitudinal Survey of Youth. We showed that financial literacy is low; fewer than one-third of young adults possess basic knowledge of interest rates, inflation, and risk diversification. Financial literacy was strongly related to sociodemographic characteristics and family financial sophistication. Specifically, a college-educated male whose parents had stocks and retirement savings was about 45 percentage points more likely to know about risk diversification than a female with less than a high school education whose parents were not wealthy. These findings have implications for consumer policy. JEL Classification: D91
This paper investigates the accuracy and heterogeneity of output growth and inflation forecasts during the current and the four preceding NBER-dated U.S. recessions. We generate forecasts from six different models of the U.S. economy and compare them to professional forecasts from the Federal Reserve’s Greenbook and the Survey of Professional Forecasters (SPF). The model parameters and model forecasts are derived from historical data vintages so as to ensure comparability to historical forecasts by professionals. The mean model forecast comes surprisingly close to the mean SPF and Greenbook forecasts in terms of accuracy even though the models only make use of a small number of data series. Model forecasts compare particularly well to professional forecasts at a horizon of three to four quarters and during recoveries. The extent of forecast heterogeneity is similar for model and professional forecasts but varies substantially over time. Thus, forecast heterogeneity constitutes a potentially important source of economic fluctuations. While the particular reasons for diversity in professional forecasts are not observable, the diversity in model forecasts can be traced to different modeling assumptions, information sets and parameter estimates. JEL Classification: C53, D84, E31, E32, E37 Keywords: Forecasting, Business Cycles, Heterogeneous Beliefs, Forecast Distribution, Model Uncertainty, Bayesian Estimation
This paper analyzes loan pricing when there is multiple banking and borrower distress. Using a unique data set on SME lending collected from major German banks, we can instrument for effective coordination between lenders, carrying out a panel estimation. The analysis allows to distinguish between rents that accrue due to single bank lending, rents that accrue due to relationship lending, and rents that accrue due to the elimination of competition among multiple lenders. We find the relationship lending to have no discernible impact on loan spreads, while both single lending and coordinated multiple lending significantly increase the spread. Thus, contrary to predictions in the literature, multiple lending does not insure the borrower against hold-up. JEL Classification: D74, G21, G33, G34
Grace in Sikhism
(2010)
As in all other religions there are two contrary streaming in Sikhism too. One teaches that meaning and value of human existence depends on the human works which we call the operative model. The other streaming preaches that the Holy’s grace is the substance of men’s ultimate destination, and it alone gives meaning to their existence; this position we call the receptive model. As the third streaming we can identify the doctrine of conditioned gratification which means that the humans get Divine support for achieving the salvation of their souls. This third one is obviously the predominant model in all religions. The religious books of the Sikhs have incorporated all positions. Therefore they are widespread and popular. Everybody finds what suits to him. We will reconstruct the receptive model as it is shown in Nitnem, where the daily prayers od the Sikhs are collected.
Die ägyptische Al-Azhar Universität feierte in März des Jahres 1983 ihr tausendjähriges Gründungsjubiläum. Chronologisch ist dieses Jubiläum allerdings etwas umstritten. In Wahrheit sind seit der Gründung der Al-Azhar nämlich keine 1000, sondern bereits 1013 Jahre verstrichen. Die Bauarbeiten an der Al-Azhar Moschee hatten bereits im April 970 angefangen. Die tausend Jahre verstehen sich somit als Beginn des eigentlichen Studienbetriebs an der Al-Azhar, die als Institution einige Jahre älter ist. Schon im Jahre 1942 hatte eine 1000-Jahrfeier an der Al-Azhar abgehalten werden sollen. Laut islamischem Mondkalender waren in eben diesem Jahr 1000 Mondjahre vergangen, doch die Ereignisse des 2. Weltkrieges, in den ja auch Ägypten verwickelt war, machten jede Hoffnung auf dies bezügliche Feierlichkeiten zunichte. Die Al-Azhar-Universität nennt sich die älteste Universität der Welt, durchaus mit Recht. Wenngleich man zugeben muß, daß schon lange vor der Gründung der Al-Azhar, Schulen und Akademien für das Studium aller Wissensgebiete existierten, von denen die bedeutendsten gerade hier in Ägypten angesiedelt waren. Man denke nur an die altägyptische Akademie von On, welcher Ort später von den Griechen Heliopolis genannt wurde, oder an die berühmte antike Akademie von Alexandrien. Es ist somit kein Zufall, daß nach der Ausbreitung des Islam eben hier im Niltal das erste große islamische Wissenszentrum gegründet wurde. ...
Der vorliegende Beitrag untersucht die erste Einführung des Buddhismus in Tibet und die dabei durch die Konfrontation mit der Bön-Religion entstehenden religiösen und politischen Konflikte. Die Tatsache, dass es zwei herausragende Einführungsphasen des Buddhismus in Tibet gab, deutet auf die religiösen Kontroversen hin, die sich in diesem Land abgespielt haben müssen. Es ergeben sich folgende Fragen: Wie haben die Tibeter auf das Eindringen des Buddhismus reagiert? Wie sieht das Verhältnis von Abgrenzung und Aneignung aus? Wie gingen die buddhistischen Mönche mit der vorherrschenden Bön-Religion um? Welche Wirkungen hatte die religiöse Dynamik auf die politische, ökonomische und soziale Lage des tibetischen Raums? ...
Zusammenfassung und Ergebnisse Es ist noch zu früh, eine abschließende Bewertung der Entwicklung auf den Finanzmärkten während der letzten zwei Jahre vorzunehmen. In jedem Fall sind aber alle Regelungen auf den Prüfstand zu stellen. Das Aufsichtsrecht hat insgesamt seine Aufgabe, Finanzstabilität zu gewährleisten, nicht erfüllt. Wesentliche Schritte für eine grundlegende Reform sind: - ein striktes Verständnis des Aufsichtsrechts als Sonderordnungsrecht - eine drastische Reduktion der Komplexität der Rechtsvorschriften - die Internationalisierung und Europäisierung der Aufsicht - die Steigerung der Transparenz der Verbriefung einschließlich eines möglichen Zulassungsverfahrens und des Verbots bestimmter gefährlicher „Produkte“ - die vollständige Neuausrichtung der Bewertung von Finanzunternehmen und ihrer „Produkte“ („ratings“) - Die Schaffung geeigneter Regeln und Verfahren, um auch systemisch relevante Institutionen der Marktdisziplin, also ihrem Untergang, auszusetzen - Die Grundlage für kurzfristige Entscheidung über Fortführung, Zerlegung oder Abwicklung eines Instituts als Maßnahme der Gefahrenabwehr muss geschaffen werden. Ein Sonderinsolvenzrecht für Banken ist nicht angezeigt - Die Einbeziehung des menschlichen Verhaltens und der Persönlichkeitsstruktur der maßgebenden Personen in den Finanzinstitutionen
ZUSAMMENFASSUNG UND ERGEBNISSE (1) Die Schaffung des Europäischen Ausschusses für Systemrisiken stößt nicht auf durchgreifende rechtliche Bedenken. (2) Es ist nicht sicher, dass die Errichtung der neuen Europäischen Aufsichtbehörden ohne entsprechende Änderung des Primärrechts zulässig ist. (3) Es kommt entscheidend darauf an, welche rechtsverbindlichen Einzelweisungsbefugnisse tatsächlich den Behörden verliehen werden. (4) Die nach dem Kompromiss vom 2. Dezember 2009 noch verbliebenen Einzelweisungsbefugnisse der Behörden gegenüber Privaten und gegenüber nationalen Aufsichtsbehörden sind rechtlich kaum abgesichert. (5) Wenn die hoheitlichen Befugnisse weitgehend oder vollständig beseitigt werden, bestehen Bedenken im Hinblick auf die Geeignetheit und Erforderlichkeit der Einrichtungen. (6) Die weitreichenden Unabhängigkeitsgarantien sind nicht mit den Anforderungen demokratischer Aufsicht und Kontrolle zu vereinbaren. (7) Für die Einräumung von Unabhängigkeit ist nach deutschem Verfassungsrecht eine ausdrückliche Regelung in der Verfassung, wie in Art. 88 Satz 2 GG, erforderlich. (8) Die transnationale Kooperation von Verwaltungsbehörden bedarf zumindest dann einer gesetzlichen Ermächtigung, wenn faktisch verbindliche Entscheidungen getroffen werden.