Universitätspublikationen
Refine
Year of publication
Document Type
- Article (13523)
- Part of Periodical (3472)
- Doctoral Thesis (3304)
- Contribution to a Periodical (2163)
- Book (2063)
- Working Paper (1886)
- Preprint (1572)
- Review (1063)
- Report (909)
- Conference Proceeding (693)
Language
- English (17101)
- German (13874)
- Portuguese (231)
- Spanish (123)
- Italian (66)
- French (64)
- Multiple languages (59)
- Turkish (12)
- Ukrainian (10)
- slo (7)
Keywords
- Deutschland (132)
- COVID-19 (95)
- inflammation (93)
- Financial Institutions (90)
- ECB (67)
- Capital Markets Union (65)
- SARS-CoV-2 (63)
- Financial Markets (61)
- Adorno (58)
- Banking Union (50)
Institute
- Medizin (6589)
- Präsidium (5087)
- Physik (3413)
- Wirtschaftswissenschaften (2286)
- Gesellschaftswissenschaften (2016)
- Biowissenschaften (1753)
- Frankfurt Institute for Advanced Studies (FIAS) (1581)
- Biochemie und Chemie (1397)
- Sustainable Architecture for Finance in Europe (SAFE) (1391)
- Informatik (1380)
- Center for Financial Studies (CFS) (1262)
- Rechtswissenschaft (1059)
- Neuere Philologien (816)
- House of Finance (HoF) (803)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (734)
- Geschichtswissenschaften (726)
- Geowissenschaften (684)
- Biochemie, Chemie und Pharmazie (665)
- Philosophie (570)
- Kulturwissenschaften (531)
- Psychologie (480)
- E-Finance Lab e.V. (436)
- Institut für Ökologie, Evolution und Diversität (400)
- Institut für Sozialforschung (IFS) (394)
- Senckenbergische Naturforschende Gesellschaft (385)
- Erziehungswissenschaften (374)
- Universitätsbibliothek (369)
- Institut für Wirtschaft, Arbeit, und Kultur (IWAK) (368)
- Pharmazie (335)
- Sprach- und Kulturwissenschaften (298)
- Biodiversität und Klima Forschungszentrum (BiK-F) (291)
- Evangelische Theologie (271)
- Geographie (241)
- Sportwissenschaften (217)
- Psychologie und Sportwissenschaften (216)
- Geowissenschaften / Geographie (207)
- Institute for Monetary and Financial Stability (IMFS) (204)
- Informatik und Mathematik (202)
- Institut für sozial-ökologische Forschung (ISOE) (197)
- Mathematik (192)
- Exzellenzcluster Makromolekulare Komplexe (173)
- MPI für Biophysik (165)
- Sprachwissenschaften (159)
- MPI für Hirnforschung (132)
- Georg-Speyer-Haus (130)
- Sonderforschungsbereiche / Forschungskollegs (126)
- Buchmann Institut für Molekulare Lebenswissenschaften (BMLS) (106)
- Zentrum für Biomolekulare Magnetische Resonanz (BMRZ) (105)
- Ernst Strüngmann Institut (94)
- Zentrum für Arzneimittelforschung, Entwicklung und Sicherheit (ZAFES) (93)
- Philosophie und Geschichtswissenschaften (76)
- Institute for Law and Finance (ILF) (68)
- Cornelia Goethe Centrum für Frauenstudien und die Erforschung der Geschlechterverhältnisse (CGC) (59)
- Katholische Theologie (56)
- Deutsches Institut für Internationale Pädagogische Forschung (DIPF) (55)
- Foundation of Law and Finance (50)
- Hessische Stiftung für Friedens- und Konfliktforschung (HSFK) (48)
- MPI für empirische Ästhetik (44)
- Interdisziplinäres Zentrum für Ostasienstudien (IZO) (40)
- ELEMENTS (37)
- Gleichstellungsbüro (36)
- Fachübergreifend (35)
- Frobenius Institut (33)
- Europäische Akademie der Arbeit in der Universität Frankfurt am Main (32)
- Zentrum für Weiterbildung (31)
- Starker Start ins Studium: Qualitätspakt Lehre (30)
- Extern (29)
- Hochschulrechenzentrum (27)
- Zentrum für Interdisziplinäre Afrikaforschung (ZIAF) (26)
- LOEWE-Schwerpunkt Außergerichtliche und gerichtliche Konfliktlösung (25)
- studiumdigitale (25)
- Sigmund-Freud Institut – Forschungsinstitut fur Psychoanalyse und ihre Anwendungen (19)
- Universität des 3. Lebensalters e.V. (19)
- Akademie für Bildungsforschung und Lehrerbildung (bisher: Zentrum für Lehrerbildung und Schul- und Unterrichtsforschung) (18)
- Exzellenzcluster Herz-Lungen-System (18)
- Center for Membrane Proteomics (CMP) (17)
- Museum Giersch der Goethe Universität (17)
- Forschungskolleg Humanwissenschaften (16)
- Centre for Drug Research (15)
- Zentrum für Nordamerika-Forschung (ZENAF) (15)
- Center for Scientific Computing (CSC) (11)
- Interdisziplinäres Zentrum für Neurowissenschaften Frankfurt (IZNF) (9)
- keine Angabe Institut (9)
- LOEWE-Schwerpunkt für Integrative Pilzforschung (8)
- Forschungszentrum Historische Geisteswissenschaften (FHG) (7)
- Fritz Bauer Institut (7)
- Helmholtz International Center for FAIR (7)
- DFG-Forschergruppen (6)
- Goethe-Zentrum für Wissenschaftliches Rechnen (G-CSC) (6)
- Zentrum für Hochschulsport (ZfH) (6)
- Internationales Studienzentrum (4)
- Frankfurt MathFinance Institute (FMFI) (3)
- Institut für Religionsphilosophische Forschung (3)
- Schreibzentrum (3)
- Zentrale Einrichtung (3)
- (2)
- Akademie für Bildungsforschung und Lehrkräftebildung (2)
- Institut für Bienenkunde (2)
- Wilhelm-Merton-Zentrum (2)
- Diagnostic Center of Acute Leukemia (1)
- Exzellenzcluster (1)
- Fachübergreifende Einrichtungen (1)
- Forschungscluster (1)
- GRADE - Goethe Research Academy for Early Career Researchers (1)
- Katholische Hochschulgemeinde (KHG) (1)
- SFB 268 (1)
- Zentrum zur Erforschung der Frühen Neuzeit (Renaissance-Institut) (1)
- keine Angabe Fachbereich (1)
Echocardiography is increasingly used in the management of the critically ill patient as a non-invasive diagnostic and monitoring tool. Whilst in few countries specialized national training schemes for intensive care unit (ICU) echocardiography have been developed, specific guidelines for ICU physicians wishing to incorporate echocardiography into their clinical practice are lacking. Further, existing echocardiography accreditation does not reflect the requirements of the ICU practitioner. The WINFOCUS (World Interactive Network Focused On Critical UltraSound) ECHO-ICU Group drew up a document aimed at providing guidance to individual physicians, trainers and the relevant societies of the requirements for the development of skills in echocardiography in the ICU setting. The document is based on recommendations published by the Royal College of Radiologists, British Society of Echocardiography, European Association of Echocardiography and American Society of Echocardiography, together with international input from established practitioners of ICU echocardiography. The recommendations contained in this document are concerned with theoretical basis of ultrasonography, the practical aspects of building an ICU-based echocardiography service as well as the key components of standard adult TTE and TEE studies to be performed on the ICU. Specific issues regarding echocardiography in different ICU clinical scenarios are then described. Obtaining competence in ICU echocardiography may be achieved in different ways – either through completion of an appropriate fellowship/training scheme, or, where not available, via a staged approach designed to train the practitioner to a level at which they can achieve accreditation. Here, peri-resuscitation focused echocardiography represents the entry level – obtainable through established courses followed by mentored practice. Next, a competence-based modular training programme is proposed: theoretical elements delivered through blended-learning and practical elements acquired in parallel through proctored practice. These all linked with existing national/international echocardiography courses. When completed, it is anticipated that the practitioner will have performed the prerequisite number of studies, and achieved the competency to undertake accreditation (leading to Level 2 competence) via a recognized National or European examination and provide the appropriate required evidence of competency (logbook). Thus, even where appropriate fellowships are not available, with support from the relevant echocardiography bodies, training and subsequently accreditation in ICU echocardiography becomes achievable within the existing framework of current critical care and cardiological practice, and is adaptable to each countrie's needs.
Background: Local adaptation to divergent environmental conditions can promote population genetic differentiation even in the absence of geographic barriers and hence, lead to speciation. Perturbations by catastrophic events, however, can distort such parapatric ecological speciation processes. Here, we asked whether an exceptionally strong flood led to homogenization of gene pools among locally adapted populations of the Atlantic molly (Poecilia mexicana, Poeciliidae) in the Cueva del Azufre system in southern Mexico, where two strong environmental selection factors (darkness within caves and/or presence of toxic H2S in sulfidic springs) drive the diversification of P. mexicana. Nine nuclear microsatellites as well as heritable female life history traits (both as a proxy for quantitative genetics and for trait divergence) were used as markers to compare genetic differentiation, genetic diversity, and especially population mixing (immigration and emigration) before and after the flood. Results: Habitat type (i.e., non-sulfidic surface, sulfidic surface, or sulfidic cave), but not geographic distance was the major predictor of genetic differentiation. Before and after the flood, each habitat type harbored a genetically distinct population. Only a weak signal of individual dislocation among ecologically divergent habitat types was uncovered (with the exception of slightly increased dislocation from the Cueva del Azufre into the sulfidic creek, El Azufre). By contrast, several lines of evidence are indicative of increased flood-induced dislocation within the same habitat type, e.g., between different cave chambers of the Cueva del Azufre. Conclusions: The virtual absence of individual dislocation among ecologically different habitat types indicates strong natural selection against migrants. Thus, our current study exemplifies that ecological speciation in this and other systems, in which extreme environmental factors drive speciation, may be little affected by temporary perturbations, as adaptations to physico-chemical stressors may directly affect the survival probability in divergent habitat types.
Background: Thymostimulin is a thymic peptide fraction with immune-mediated cytotoxicity against hepatocellular carcinoma (HCC) in vitro and palliative efficacy in advanced HCC in two independent phase II trials. The aim of this study was to assess the efficacy of thymostimulin in a phase III trial. Methods: The study was designed as a prospective randomised, placebo-controlled, double-blind, multicenter clinical phase III trial. Between 10/2002 and 03/2005, 135 patients with locally advanced or metastasised HCC (Karnofsky [greater than or equal to]60% / Child-Pugh [less than or equal to]12) were randomised to receive thymostimulin 75 mg s.c. 5x/week or placebo stratified according to liver function. Primary endpoint was twelve-month survival, secondary endpoints overall survival (OS), time to progression (TTP), tumor response, safety and quality of life. A subgroup analysis according to liver function, KPS and tumor stage (Okuda, CLIP and BCLC) formed part of the protocol. Current Controlled Trials ISRCTN64487365. Results: Twelve-month survival was 28% [95%CI 17-41; treatment] and 32% [95%CI 19-44; control] with no significant differences in median OS (5.0 [95% CI 3.7-6.3] vs. 5.2 [95% CI 3.5-6.9] months; p=0.87, HR=1.04 [95% CI 0.7-1.6]) or TTP (5.3 [95%CI 2.0-8.6] vs. 2.9 [95%CI 2.6-3.1] months; p=0.60, HR=1.13 [95% CI 0.7-1.8]). Adjustment for liver function, Karnofsky status or tumor stage did not affect results. While quality of life was similar in both groups, fewer patients on thymostimulin suffered from accumulating ascites and renal failure. Conclusions: In our phase III trial, we found no evidence of any benefit to thymostimulin in the treatment of advanced HCC and there is therefore no justification for its use as single-agent treatment. The effect of thymostimulin on hepato-renal function requires further confirmation. trial registration: Current Controlled Trials ISRCTN64487365
Background: Reactive oxygen species (ROS) and reactive nitrogen species (RNS) are produced during hemorrhagic shock and resuscitation (H/R), which may contribute to multiple organ failure. The AIM of this study was to test the hypothesis that green tea (Camellia sinenesis) extract containing 85% polyphenols decreases injury after H/R in rats by scavenging ROS and RNS. Method: S: Female Sprague Dawley rats were given 100 mg polyphenol extract/kg body weight or vehicle 2 h prior to hemorrhagic shock. H/R was induced by two protocols: 1) withdrawal of blood to a mean arterial pressure of 40 mm Hg followed by further withdrawals to decrease blood pressure progressively to 28 mm Hg over 1 h (severe), and 2) withdrawal of blood to a sustained hypotension of 40 mm Hg for 1 h (moderate). Rats were then resuscitated over 1 h with 60% of the shed blood volume plus twice the shed blood volume of lactated Ringer's solution. Serum samples were collected at 10 min and 2 h after resuscitation. At 2 or 18 h, livers were harvested for cytokine and 3-nitrotyrosine quantification, immunohistochemical detection of 4-hydroxynonenol (4-HNE) and inducible nitric oxide synthase (iNOS) protein expression. Results: After severe H/R, 18-h survival increased from 20% after vehicle to 70% after polyphenols (p<0.05). After moderate H/R, survival was greater (80%) and not different between vehicle and polyphenols. In moderate H/R, serum alanine aminotransferase (ALT) increased at 10 min and 2 h postresuscitation to 345 and 545 IU/L, respectively. Polyphenol treatment blunted this increase to 153 and 252 IU/L at 10 min and 2 h (p<0.01). Polyphenols also blunted increases in liver homogenates of TNFalpha (7.0 pg/mg with vehicle vs. 4.9 pg/mg with polyphenols, p<0.05), IL-1beta (0.80 vs. 0.37 pg/mg, p<0.05), IL-6 (6.9 vs. 5.1 pg/mg, p<0.05) and nitrotyrosine (1.9 pg/mg vs. 0.6 pg/mg, p<0.05) measured 18 h after H/R. Hepatic 4-HNE immunostaining indicative of lipid peroxidation also decreased from 4.8% after vehicle to 1.5% after polyphenols (p<0.05). By contrast, polyphenols did not block increased iNOS expression at 2 h after H/R. CONCLUSION: Polyphenols decrease ROS/RNS formation and are beneficial after hemorrhagic shock and resuscitation.
Background: Because Endomyocardial Biopsy has low sensitivity of about 20%, it can be performed near to myocardium that presented as Late Gadolinium Enhancement (LGE) in cardiovascular magnetic resonance (CMR). However the important issue of comparing topography of CMR and histological findings has not yet been investigated. Thus the current study was performed using an animal model of myocarditis. Results: In 10 male Lewis rats Experimental Autoimmune myocarditis was induced, 10 rats served as control. On day 21 animals were examined by CMR to compare topographic distribution of LGE to histological inflammation. Sensitivity, specificity, positive and negative predictive values for LGE in diagnosing myocarditis were determined for each segment of myocardium. Latter diagnostic values varied widely depending on topographic distribution of LGE and inflammation as well as on the used CMR sequence. Sensitivity of LGE was up to 76% (left lateral myocardium) and positive predictive values were up to 85% (left lateral myocardium), whereas sensitivity and positive predictive value dropped to 0 - 33% (left inferior myocardium). Conclusions: Topographic distribution of LGE and histological inflammation seem to influence sensitivity, specifity, positive and negative predictive values. Nevertheless, positive predictive value for LGE of up to 85% indicates that Endomyocardial Biopsy should be performed "MR-guided". LGE seems to have greater sensitivity than Endomyocardial Biopsy for the diagnosis of myocarditis.
Im vorliegenden Arbeitspapier werden alternative normative Grundpositionen der Familienpolitik diskutiert und die Entwicklung der relativen Verteilungspositionen von Haushalten unterschiedlicher Größe bzw. von Familien mit und ohne Kinder untersucht. Die empirische Analyse stützt sich zum einen auf veröffentlichte Tabellen des Statistischen Bundesamtes und zum anderen auf eigene Auswertungen der Einkommens- und Verbrauchsstichproben 1973, 1978 und 1983 sowie des Sozio-ökonomischen Panels für einzelne Stichjahre der späteren Periode und insbesondere für die Ausgangssituation und die bisherigen Veränderungen in den neuen Bundesländern. Als Indikator für die Einkommenslage von Personen wird ein Äquivalenzeinkommen in Relation zum jeweiligen Gruppen- oder Gesamtdurchschnitt, die sogenannte Wohlstandsposition, herangezogen. Personen in Haushalten mit drei oder mehr Personen - das sind hauptsächlich Familien mit Kindern - schneiden erwartungsgemäß im Durchschnitt schlechter ab als Personen in kleineren Haushalten. Allerdings sind die Diskrepanzen innerhalb der Gruppen, die überwiegend von Transfers leben, mäßiger als innerhalb der Gruppen mit erwerbstätigem Haushaltsvorstand; anscheinend wirkt der Familienlastenausgleich in den sozial schwächeren Gruppen stärker. Zwischen 1972 und 1992 (Westdeutschland) hat sich die relative Position der größeren Haushalte allerdings tendenziell etwas verschlechtert. Die Verteilungsanalyse auf der Basis der erwähnten Mikrodaten zeigt zudem, daß Familien mit Kindern wesentlich häufiger unterhalb der durchschnittlichen Wohlstandsposition und unterhalb der relativen Armutslinie von 50 % einzuordnen sind als (Ehe-)Paare ohne Kinder. Besonders ungünstig sieht die Situation bei den Alleinerziehenden aus; die Armutsquote dieser Gruppe schwankt zwischen einem Fünftel und einem Viertel. In der ehemaligen DDR scheint die relative Position der Familien mit Kindern überwiegend besser gewesen zu sein; die Strukturen in den neuen Bundesländern haben sich aber bereits denen in Westdeutschland angenähert.
Dieser Beitrag vergleicht mit einheitlicher Methodik die Mobilität des individuellen Bruttoarbeitseinkommens, des Bruttoäquivalenzeinkommens und des Nettoäquivalenzeinkommens in Westdeutschland, Ostdeutschland, Großbritannien, den USA und Ungarn mit Panel-Daten dieser Länder aus dem Zeitraum 1989-1995. Die Mobilität ist in Ostdeutschland bei allen Einkommenskonzepten wesentlich höher als in Westdeutschland, nähert sich aber im Zeitablauf und insbesondere beim Nettoäquivalenzeinkommen dem westdeutschen Niveau an. Die Mobilität des Bruttoäquivalenzeinkommens ist in Westdeutschland größer, die des Nettoäquivalenzeinkommens kleiner als in Großbritannien. Die Mobilität des individuellen Bruttoarbeitseinkommens und des Bruttoäquivalenzeinkommens ist in Westdeutschland höher, die des Nettoäquivalenzeinkommens niedriger als in den USA. Die Mobilität des Nettoäquivalenzeinkommens ist in Ungarn deutlich höher als in Ostdeutschland. Diese Ergebnisse zeigen eine im internationalen Vergleich unerwartet hohe Flexibilität des deutschen Arbeitsmarkts, wobei jedoch die Verweildauer in der Arbeitslosigkeit in Deutschland länger ist als in den USA und Großbritannien, wo viele Arbeitslose schnell in schlecht bezahlte Jobs wechseln. Ferner zeigt sich, daß das Steuer- und Transfersystem in keiner anderen Volkswirtschaft die Mobilität der Bruttoäquivalenzeinkommen stärker reduziert als in Deutschland.
This paper aims to provide a descriptive analysis of the changing patterns of labour market participation, non-participation and unemployment in Great Britain, Sweden and Germany. Since the mid 1970s, most European countries have experienced two parallel developments: on the one hand they have witnessed a huge growth in the proportion of women participating on the labour market. On the other however, they have experienced the return of mass unemployment and a growing insecurity of employment for those in work. In this paper, a typology of work histories is constructed using decade periods. Retrospective and panel data from Germany, Britain and Sweden are then used to compare the effects of different employment and welfare regimes on the proportions of respondents with different types of work histories and how these are combined with unemployment.
Überarbeitete Version des Arbeitspapiers "The dynamics of labour market participation, unemployment and non-participation in Great Britain, Sweden and Germany" / Wolfgang Strengmann-Kuhn. [Johann-Wolfgang-Goethe-Universität Frankfurt am Main, Fachbereich Wirtschaftswissenschaften, Institut für Volkswirtschaftslehre]
This paper fits within a broader research programme concerned with the processes that link labour market precarity and social exclusion. Labour market insecurity manifests itself most directly in the form of unemployment, and other elements in the programme seek to measure the impact of precarity, and unemployment in particular, on poverty and social exclusion in the eight countries covered. One of the principal concerns of the programme is however the extent to which institutional differences across countries with respect to the labour market and social protection are a significant factor mediating the relationship between labour market precarity and social exclusion. This paper focuses on the effectiveness of cash transfers, the central element of social protection systems, in alleviating the effects of unemployment on income poverty. The structures of social protection systems vary greatly across European Union member states, and in many cases have altered significantly in recent years in response to high unemployment (see Hauser et al, 1998). Using data from the mid-1980s and the mid-1990s for six member countries, the paper compares the effectiveness of different systems in lifting or keeping the unemployed out of poverty, and how this has been affected by the way systems have responded to the challenges produced by developments in the labour market in the past decade. The specific role of social insurance-based unemployment-linked transfers versus other cash transfers is also considered, to assess the extent to which social insurance has been able to cope with changes in the labour market over the period. The data come from a variety of national large-scale household surveys. The paper is structured as follows. Section 2 discusses the data and methods to be employed in measuring the impact of cash transfers on poverty risks for the unemployed. Section 3 looks at the overall risks of poverty for the unemployed before and after cash transfers, and how these changed between the mid-1980s and mid-1990s. Section 4 looks at the role of social insurance-based unemployment payments versus other cash transfers. Section 5 examines the extent to which the impact of transfers varies by gender and by duration of unemployment. Section 6 highlights the key patterns identified and what these tell us about the relationship between the type of welfare regime a country operates and effectiveness in alleviating poverty among the unemployed.
Untersuchung der Konformation und Dynamik von RNA mit Hilfe fluoreszierender Farbstoffmoleküle
(2010)
Die vorliegende Arbeit beschäftigt sich mit der Untersuchung der konformationellen und elektronischen Eigenschaften sowie der Dynamik verschiedener RNA-Systeme. Zur Durchführung dieser Experimente wurde zusätzlich zu bereits vorhandenen statischen und zeitaufgelösten Absorptionsspektrometern im Rahmen dieser Arbeit eine Apparatur zur Messung von Fluoreszenzlebensdauern entwickelt, die durch die integrative Verwendung zweier verschiedener, etablierter Technologien (TCSPC und Aufkonvertierung) über einen weiten Zeitbereich von 9 Größenordnungen (100 fs - 0,1 ms) operiert. Mit diesem Aufbau konnten neben den RNA-Studien wichtige Beiträge zum Verständnis der Isomerisierung eines Retinalproteins, des Transportprozess des Membrantransportproteins TbSMR und der im Infraroten liegenden Fluoreszenz des Radikalkations von Astaxanthin gewonnen werden. Der Schwerpunkt der vorliegenden Arbeit liegt auf der Untersuchung verschiedener RNA-Systeme: So werden die optischen Eigenschaften einer 1-Ethinylpyren-modifzierten RNA-Adeninbase allein und in RNA-Strängen eingebunden untersucht. Statische Fluoreszenzmessungen zeigen einen ausgeprägten Ladungstransfercharakter des Chromophors und eine generell große Wechselwirkung zwischen Ethinylpyren und Adenin, die in einer substanziellen Änderung der optischen Eigenschaften des Pyrens resultiert. Die Untersuchung der schnellen Photodynamik von Pyrenadenin zeigt zudem eine Verringerung der Lebensdauer von Pyren um etwa 2 Größenordnungen. Pyrenadenin zeigt sowohl Fluoreszenz eines neutralen (100-200 ps), als auch eines energetisch tiefer liegenden Ladungstransferzustands (1-2 ns). Die Formationszeit des Ladungstransferzustandes fällt mit steigender Polarität des Lösemittels. Eingebunden in Modell-RNA-Stränge ist Fluoreszenzquantenausbeute des Chromophors ein deutlicher Indikator für seine Interkalation. Nur in der stabileren Umgebung von GC-Basenpaaren ist das Pyren in der Lage, sich dauerhaft innerhalb des Duplex aufzuhalten, während in einer flexibleren AU-Umgebung eine Position außerhalb des RNA-Duplex präferiert wird. Transiente Absorptionsmessungen zeigen, dass die Photophysik des in RNA eingebundenen Pyrenadenins nur kleine Variationen im Vergleich zur Photophysik des Labels allein aufweist. Die deutliche Abnahme der Quantenausbeute des interkalierten Chromophors geht hauptsächlich auf Kosten der langlebigeren Ladungstransferfluoreszenz, so dass interkaliertes Pyren insgesamt schneller in den Grundzustand zurückkehrt als nicht interkaliertes. Mit Hilfe eines doppelt modifizierten Duplex, bei dem sich jeweils ein Farbstoff an einem der beiden Stränge befindet, kann nachgewiesen werden, dass aufgrund von Exzimerwechselwirkungen eine Verschiebung des Fluoreszenzmaximums von 35 nm auftritt. Kurzzeitspektroskopische Messungen zeigen Signale, die als Superposition von Monomeren und Exzimeren interpretiert werden können, wobei die Lebensdauer des letzteren mit 18,5 ns die der Monomerkomponente um ein Vielfaches übertrifft. Ein weiterer Teil dieser Arbeit beschäftigt sich mit einer Studie zur Bindung des fluoreszenten Liganden Tetrazyklin an das Tetrazyklin bindende Aptamer. Hier wird auf Basis verschiedener Mutanten mit Hilfe des TCSPC eine Analyse der Stabilität der Bindetasche sowie mit der Stopped-Flow-Methode eine Beobachtung des Bindungsprozesses durchgeführt. Insgesamt folgt die Bindung des Tetrazyklins an das Aptamer einer zweistufigen Kinetik, deren zweiter Schritt irreversibel ist. Die Bindung läuft, verglichen mit anderen Aptameren, sehr schnell ab. Während die Mutationen von A13 und A50,die direkte Kontakte zum Substrat bilden, nur einen leichten Einfluss auf beide Bindungsschritte ausüben, führt eine Mutation der für die Präformation verantwortlichen Base A9 zu einer Verlangsamung des Bindungsprozesses um mehr als einen Faktor 20 durch eine immens gesteigerten Rückreaktionsrate des ersten Bindungsschritts. Hieraus lässt sich schließen, dass bei fehlender Präformation des Aptamers nur wenige Tetrazyklinmoleküle ein für vollständige Bindung geeignetes Aptamer vorfinden. Die Bindung an A13 und A50 geschieht bereits im ersten Schritt des Bindungsprozesses. Ferner konnte anhand von Lebensdauermessungen gezeigt werden, dass nach dem Wildtyp die Mutante A9G die stabilste Bindetasche aufwies. Das Fehlen eines direkten Kontaktes wirkt sich deutlich stärker aus. Insbesondere führt die Abwesenheit der Fixierung des Gegenions durch A50 zu der instabilsten Bindetasche. Wie in dieser Arbeit gezeigt wird, ist die zeitaufgelöste optische Spektroskopie insbesondere in Verbindung mit fluoreszierenden Molekülen ein ausgezeichnetes Mittel zur Beobachtung von Struktur und Dynamik von RNA. Die Empfindlichkeit von Fluoreszenz auf die Veränderung der Umgebung des Chromophors erlaubt es, Konformationsdynamik und elektronische Konfigurationen in Echtzeit zu beobachten.
Empirische Wohlstandsanalysen können prinzipiell anhand dreier Indikatoren durchgeführt werden: Anhand des Privaten Verbrauchs, anhand des verfügbaren Einkommens oder anhand des Nettovermögens.1 Während es für die Definition der Indikatoren des Privaten Verbrauchs und des verfügbaren Einkommens zumindest einigermaßen akzeptierte internationale Konventionen gibt, ist dies bezüglich der Definition des privaten Vermögens nicht annähernd der Fall. Im Unterschied zu den Volkseinkommensrechnungen sind Volksvermögensrechnungen im internationalen Maßstab deutlich weniger gut ausgebaut. Dies mag damit zusammenhängen, daß bei einer Bestandsgröße wie dem privaten Vermögen Aspekte der Verwertung, Nutz-ung, sozialen Absicherung wie auch der Verleihung von Macht2 intensiver zum Tragen kommen als bei einer Stromgröße wie dem privat verfügbaren Haushaltseinkommen. Aus welchen Bestandteilen sich das Gesamtvermögen zusammenzusetzen hat, ist daher einem heftigeren Diskurs als bei den anderen Wohlstandsindikatoren ausgesetzt. Es herrscht beispielsweise Uneinigkeit darüber, ob das Human- oder das Sozialvermögen sinnvolle Vermögenskomponenten sind. Eine eher negative Einschätzung in diesem Zusammenhang wird üblicherweise damit begründet, daß beide potentiellen Gesamtvermögensbestandteile das Kriterium der interpersonellen Veräußerbarkeit nicht bzw. nur unzureichend erfüllen.1 Auch ist die Forschung vor zum Teil schwer überwindbare Bewertungsprobleme einzelner Vermögenskomponenten gestellt, und zwar stärker als bei den beiden anderen Wohlstandsindikatoren, bei denen zumindest die überwiegende Anzahl an Teilelementen mittels nachvollziehbarer Marktpreise vergleichsweise einfach bewertet werden kann. Hinzu kommt die schlechtere Datenlage hinsichtlich der Erfassung privaten Vermögens im Vergleich zum Privaten Verbrauch bzw. verfügbaren Haushaltseinkommen, was nicht zuletzt auf die - in Befragungen - (noch) größere Sensibilität der Interviewten bezüglich der Beantwortung vermögensbezogener Fragen im Vergleich zu den beiden anderen Wohlstandsindikatoren zurückzuführen ist. Alles in allem bleibt festzuhalten, daß allein die Deskription der Höhe und Verteilung privat gehaltenen Vermögens eine höchst komplexe Aufgabe ist. Es ist daher keineswegs unwahrscheinlich, daß verschiedene Vermögensanalysen selbst auf einer einheitlichen Datengrundlage zu zum Teil entgegengesetzten Aussagen gelangen werden. Diesen letztgenannten Gedanken aufgreifend, werden in der vorliegenden Studie in beispielhafter Form drei auf Basis der Einkommens- und Verbrauchsstichprobe (EVS) 1988 durchgeführte Analysen zur bundesdeutschen Vermögensverteilung privater Haushalte einer vergleichenden Betrachtung unterzogen. Es wird gezeigt, an welchen Stellen Abweichungen zwischen den einzelnen Studien auftreten und worauf diese (vermutlich) zurückzuführen sind. Das vorliegende Arbeitspapier ist wie nachfolgend aufgebaut. Kapitel 2 vermittelt einen Eindruck von der Datenbasis, auf der die drei genannten Studien jeweils basieren, Kapitel 3 schildert kurz die Konstruktionselemente der drei behandelten Analysen, und in Kapitel 4 werden in einer Gegenüberstellung der drei Studien Unterschiede kausal herausgearbeitet. Es folgt in Kapitel 5 eine Bewertung der Untersuchungsergebnisse.
In diesem Bericht wurde das in [Pae02] eingeführte Verfahren "GenDurchschnitt" auf die symbolischen Daten zweier Datenbanken septischer Schock-Patienten angewendet. Es wurden jeweils Generalisierungsregeln generiert, die neben einer robusten Klassifikation der Patienten in die Klassen "überlebt" und "verstorben" auch eine Interpretation der Daten ermöglichten. Ein Vergleich mit den aktuellen Verfahren A-priori und FP-Baum haben die gute Verwendbarkeit des Algorithmus belegt. Die Heuristiken führten zu Laufzeitverbesserungen. Insbesondere die Möglichkeit, die Wichtigkeit von Variablen pro Klasse zu berechnen, führte zu einer Variablenreduktion im Eingaberaum und zu der Identifikation wichtiger Items. Einige Regelbeispiele wurden für jeden Datensatz genannt. Die Frühzeitigkeit von Regeln lieferte für die beiden Datenbanken ein unterschiedliches Ergebnis: Bei den ASK-Daten treten die Regeln für die Klasse "verstorben" früher als die der Klasse "überlebt" auf; bei den MEDAN-Klinikdaten ist es umgekehrt. Eine Erklärung hierfür könnte sein, dass es sich im Vergleich zu den MEDAN-Klinikdaten bei den ASK-Daten um ein Patientenkollektiv mit einer anderen, speziellen Patientencharakteristik handelt. Anhand der Ähnlichkeit der Regeln konnten für den Anwender eine überschaubare Anzahl zuverlässiger Regeln ausgegeben werden, die möglichst unähnlich zueinander sind und somit für einen Arzt in ihrer Gesamtheit interessant sind. Assoziationsregeln und FP-Baum-Regeln erzeugen zwar kürzere Regeln, die aber zu zahlreich und nicht hinreichend sind (vgl. [Pae02, Abschnitt 4]). Zusätzlich zu der Analyse der symbolischen Daten ist auch die Analyse der metrischen MEDAN-Klinikdaten der septischen Schock-Patienten interessant. Ebenfalls ist eine Kombination der Analysen der metrischen und symbolischen Daten sinnvoll. Solche Analysen wurden ebenfalls durchgeführt; die Ergebnisse dieser Analysen werden an anderer Stelle präsentiert werden. Weitere Anwendungen der Generalisierungsregeln sind denkbar. Auch eine Verbesserung des theoretischen Fundaments (vgl. [Pae02]) erscheint sinnvoll, da erst das Zusammenspiel theoretischer und praktischer Anstrengungen zum Ziel führt.
Performance and storage requirements of topology-conserving maps for robot manipulator control
(1989)
A new programming paradigm for the control of a robot manipulator by learning the mapping between the Cartesian space and the joint space (inverse Kinematic) is discussed. It is based on a Neural Network model of optimal mapping between two high-dimensional spaces by Kohonen. This paper describes the approach and presents the optimal mapping, based on the principle of maximal information gain. It is shown that Kohonens mapping in the 2-dimensional case is optimal in this sense. Furthermore, the principal control error made by the learned mapping is evaluated for the example of the commonly used PUMA robot, the trade-off between storage resources and positional error is discussed and an optimal position encoding resolution is proposed.
The structure of the compulsory pension system (CPS) in the Federal Republic of Germany has been changed fundamentally. The federal government has decided to introduce a private pension system on a voluntary basis. The payments to this voluntary system are to constitute a capital stock to supplement the payments of the compulsory pension system. Comprehensive fiscal subsidies will be introduced to support this change to the pension system. This paper discusses the special situation of families with children. The second section investigates the extent to which families with children were able to accumulate private wealth in the last ten years in Germany. In the third section the main features of the intended changes to the compulsory pension system are described, and an overview of the planned fiscal subsidies is provided. In the fourth and final section we attempt to evaluate the changes with particular attention to the situation of families.
Die Struktur der Gesetzlichen Rentenversicherung (GRV) in der Bundesrepublik Deutschland ist grundsätzlich geändert worden. Die Bundesregierung hat die Einführung einer zusätzlichen privaten Alterssicherung auf freiwilliger Basis beschlossen. Hierdurch soll ein Kapitalstock gebildet werden, der die Leistungen der GRV ergänzt. Zur Förderung dieser Systemänderung der Alterssicherung werden umfangreiche fiskalische Unterstützungsmaßnahmen eingeführt. Im Rahmen des hier vorliegenden Beitrags wird auf die besondere Situation der Familien mit Kindern eingegangen. Im zweiten Abschnitt wird untersucht, inwieweit Familien mit Kindern in den letzten zehn Jahren in Deutschland in der Lage waren, privates Vermögen aufzubauen. Im dritten Abschnitt werden die beabsichtigten Änderungen des Systems der gesetzlichen Rentenversicherung in den Grundzügen dargestellt, und es wird ein Überblick über die geplanten fiskalischen Fördermaßnahmen gegeben. Im abschließenden vierten Abschnitt wird eine Bewertung der Änderungen vor allem in Bezug auf die Situation von Familien versucht.
This investigation of the wealth of private households as a possible indicator for the prosperity of a society indicated a strong increase in wealth for the Federal Republic of Germany since 1970. This applies both to the macro-economic results of the financial accounting of the Deutsche Bundesbank and to the micro-economic results of the Income and Consumption Surveys of the Federal Statistical Office. However, substantial differences become clear in the content expressed by these two different sets of data. While the financial accounting of the Deutsche Bundesbank shows an increase of net assets of around 808 per cent over 27 years (from 1.3 trillion DM in the year 1970 to 12.1 trillion DM in 1997), calculations on the basis of the Income and Consumption Surveys yield a corresponding value of only 280 per cent in a 25-year period, with a substantially lower overall magnitude in later investigations (from 2.2 trillion DM in 1973 to only 8.3 trillion DM in 1998). Investigation of the EVS data pointed out the great importance of property for the wealth situation of private households. However, not every household has property in the form of housing and real estate. In West Germany, ownership rates have increased substantially since 1962. However, since 1993 these rates have stagnated at about 50 per cent. The analysis of the distribution of wealth for West German households yielded a decline in the concentration of wealth in the period from 1973 to 1993, both in terms of the shares of total wealth held by individual quintiles of households, and as expressed by the Gini coefficients. However, this trend did not continue in the years between 1993 and 1998. For the year 1998 it can be determined that the lowest 40 per cent of households in West Germany had practically no wealth, while the highest quintile claimed over 60 per cent of total assets. For East Germany, strong tendencies are established toward adapting to the values in the West German Länder. This concerns first the absolute level of net assets, even though in 1998 these amounted to just 38 per cent of the analogous value in West German households, in terms of the average value per household. Similarly, the ownership rates of housing and real estate also rose dramatically after reunification. The inequality of the distribution of wealth in East Germany was reduced somewhat by this broader basis of real-estate ownership over the course of time, such that the Gini coefficient decreased slightly in the period from 1993 to 1998. However, it is also true for the new Länder in the Federal Republic that the lowest 40 per cent of households have practically no wealth, while the highest quintile of East German households claim over 70 per cent of total assets, even higher than its share in West Germany. Furthermore, the distribution of wealth is remarkably congruous in East and West Germany. Both the distribution of wealth as expressed by the quintile values and the results of the Gini coefficients yield similar results, whereby the trend in both regions is toward convergence. The similarity of these results must be regarded as nothing less than amazing, considering that the two regions followed different economic models for over forty years: the social free-market economy (Soziale Marktwirtschaft) in the Federal Republic of Germany, and the socialist planned economy (Sozialistische Planwirtschaft) in the German Democratic Republic.
Die Entwicklung des aggregierten Privatvermögens und seine Verteilung in Deutschland seit 1970
(2002)
Die hier vorgestellte Untersuchung des Vermögens privater Haushalte als ein möglicher Indikator für den Wohlstand einer Gesellschaft hat für die Bundesrepublik Deutschland einen starken Anstieg der Vermögen seit 1970 aufgezeigt. Dies gilt sowohl für die makroökonomischen Resultate der Finanzierungsrechnung der Deutschen Bundesbank als auch für die mikroökonomischen Ergebnisse der Einkommens- und Verbrauchsstichproben des Statistischen Bundesamts. Allerdings werden auch wesentliche Unterschiede im Aussagegehalt der einzelnen Datensätze deutlich. Während die Finanzierungsrechnung eine Steigerung des Nettovermögens um 808 Prozent in 27 Jahren aufweist (von 1,3 Billionen DM im Jahr 1970 auf 12,1 Billionen DM im Jahr 1997) lautet der entsprechende Prozentwert auf der Berechnungsbasis der Einkommens- und Verbrauchsstichproben nur 280 Prozent in 25 Jahren bei einer wesentlich niedrigeren Gesamthöhe in späteren Untersuchungen (von 2,2 Billionen DM im Jahr 1973 auf nur 8,3 Billionen DM im Jahr 1998). Die Untersuchung der Daten der EVS hat aufgezeigt, welch große Bedeutung das Immobilienvermögen für die Vermögenssituation der privaten Haushalte hat. Allerdings ist es nicht so, dass alle Haushalte über Eigentum an Grund- und Hausbesitz verfügen. In Westdeutschland hat es zwar eine starke Steigerungen der Eigentümerquote seit 1961 gegeben. Seit 1993 ist jedoch eine Stagnation bei etwa 50 Prozent zu konstatieren. Die Analyse der Vermögensverteilung nur bezogen auf die westdeutschen Haushalte hat im Zeitraum von 1973 bis 1993 eine abnehmende Konzentration sowohl bei der Betrachtung der Anteile einzelner Haushaltsquintile am Nettogesamtvermögen als auch bei der Analyse des Gini-Koeffizienten ergeben. Allerdings hat sich dieser Trend in den Jahren bis 1998 nicht weiter fortgeführt. Für das Jahr 1998 ist in Westdeutschland feststellbar, dass die unteren 40 Prozent der Haushalte über praktisch kein Vermögen verfügen, während das oberste Quintil über 60 Prozent des Gesamtvermögens aufweisen kann. Für Ostdeutschland sind starke Anpassungstendenzen hin zu den Werten der westdeutschen Bundesländer festzustellen. Dies betrifft einerseits die absolute Höhe der Vermögenswerte, auch wenn diese bisher nur 38 Prozent des entsprechenden Wertes westdeutscher Haushalte bei einer Betrachtung der Durchschnittswerte je Haushalte im Jahr 1998 erreichen. Andererseits ist auch die Eigentümerquote an Haus- und Grundbesitz nach der Wiedervereinigung stark angestiegen. Durch dieses Immobilieneigentum auf breiterer Basis wird die Ungleichheit der Vermögensverteilung in Ostdeutschland im Zeitablauf etwas verringert, so dass der Gini-Koeffizient in den Jahren von 1993 zu 1998 leicht gesunken ist. Jedoch kann auch für die neuen Bundesländer festgestellt werden, dass die unteren 40 Prozent der Haushalte über praktisch kein Vermögen verfügen, während das oberste Quintil ostdeutscher Haushalte sogar über 70 Prozent des Gesamtvermögens aufweisen kann. Feststellbar ist weiterhin eine hohe Übereinstimmung der Vermögensverteilung in Ost- und Westdeutschland. Sowohl die Vermögensverteilung auf der Basis der Quintilswerte als auch die Resultate der Gini-Koeffizienten weisen ähnliche Ergebnisse auf, wobei eine starke Angleichungstendenz zwischen beiden Landesteilen gegeben ist. Diese Ähnlichkeit der Ergebnisse kann nur als erstaunlich bezeichnet werden, wenn man bedenkt, dass beide Landesteile für über 40 Jahre unterschiedlichen wirtschaftspolitischen Leitbildern gefolgt sind – die Bundesrepublik Deutschland der sozialen Marktwirtschaft und die Deutsche Demokratische Republik der sozialistischen Planwirtschaft.
Einkommensverteilung in Deutschland : Strukturanalyse der Ungleichheit nach Einkommenskomponenten
(2000)
Ergebnisse von Verteilungsanalysen fallen je nach der Bezugseinheit - Haushalt oder Person - recht unterschiedlich aus. Dies gilt sowohl für das Niveau von Verteilungsindikatoren und deren Entwicklung im Zeitverlauf, als auch hinsichtlich der Beiträge einzelner Einkommens- und Abgabearten zu der gemessenen Ungleichheit. Auf der Basis der Einkommens- und Verbrauchsstichproben 1988 und 1993 und unter Verwendung der "älteren OECD-Skala" hat sich gezeigt, dass die Ungleichheit der personellen Verteilung der Nettoäquivalenzeinkommen im Beobachtungszeitraum in den alten Ländern zugenommen hat, aber nach wie vor wesentlich gleichmäßiger als die unveränderte Verteilung der Haushaltsnettoeinkommen auf Haushalte ist. In den neuen Ländern ist der Unterschied zwischen der haushaltsbezogenen und der personenbezogenen Einkommensverteilung noch deutlicher bei insgesamt geringerer Ungleichheit als in den alten Ländern. Auch die Zerlegung der aggregierten Ungleichheit nach Einkommenskomponenten führt zu teilweise abweichenden Ergebnissen in Abhängigkeit von der Bezugseinheit, da bei einzelnen Haushaltstypen im Durchschnitt jeweils unterschiedliche Einkommensarten dominieren. Entgegen gängigen Vorstellungen über Verteilungsstrukturen zeigt sich allerdings generell, dass die Verteilungsungleichheit zum größten Teil durch die Bruttoeinkommen aus unselbständiger Arbeit bestimmt wird. Zwar sind die Selbständigen- und Vermögenseinkommen erwartungsgemäß wesentlich ungleicher verteilt, durch ihren vergleichsweise geringen Anteil am Gesamteinkommen ist ihr Einfluss auf die Gesamtverteilung aber - insbesondere in Ostdeutschland, aber auch in Westdeutschland - begrenzt. Dies wird bei der Analyse der personellen Verteilung allerdings weniger deutlich als bei der Bezugnahme auf Haushalte. Wiederum im Gegensatz zu verbreiteten Annahmen wird die Ungleichheit der Verteilung der Haushaltseinkommen durch staatliche Transferzahlungen nicht oder nur unwesentlich gemildert. Dies ist aber nur auf den ersten Blick überraschend, da nur ein geringer Teil der Transfers vorrangig vertikalen, interpersonellen Umverteilungszielen dient. Die Leistungen der Sozialversicherung und vergleichbarer Systeme bezwecken hauptsächlich eine intertemporale Umverteilung und Lebensstandardsicherung bei Eintritt bestimmter Risikotatbestände (Alter, Tod des Ernährers, Unfall, Arbeitslosigkeit, Krankheit), so dass sie die Verteilung der Einkommen aus unselbständiger Arbeit abgeschwächt wiederspiegeln. Demzufolge geht auch von ihnen keine merkliche Verminderung der Ungleichheit der Nettoeinkommensverteilung auf der Haushaltsebene bzw. sogar eine leichte Erhöhung der Ungleichheit der personellen Verteilung der Nettoäquivalenzeinkommen in Westdeutschland aus. Aber selbst von den steuerfinanzierten Transfers geht unter Bezugnahme auf Haushalte insgesamt nur ein sehr geringer nivellierender Effekt aus. Hier wird die konzeptionelle Schwäche des analytischen Ansatzes am ungewichteten Haushaltseinkommen besonders deutlich. Denn mit dem Haushaltseinkommen wird ohne eine Berücksichtigung der Haushaltsgröße und -struktur die Bedarfssituation der Haushaltsmitglieder, die für viele steuerfinanzierte Transfers maßgeblich ist, nur unzureichend erfasst. Dementsprechend erweist sich der ausgleichende Effekt der Transfers der Gebietskörperschaften unter Bezugnahme auf Personen als recht deutlich, wenn auch in Westdeutschland im Vergleich zum Anteil am Einkommensaggregat als unterproportional. Bei einer weiteren Aufspaltung des heterogenen Komplexes der steuerfinanzierten Transfers in das einkommensunabhängige Kindergeld, Einkommensübertragungen mit Entschädigungscharakter und Transfers mit dem vorrangigen Ziel vertikaler Umverteilung zeigt sich aber auch für Westdeutschland eine weit überproportionale Reduzierung der Ungleichheit der Verteilung der Nettoäquivalenzeinkommen durch i. e. S. bedarfsabhängige Transfers. Absolut gesehen macht der ausgleichende Effekt zwar in den alten Ländern weniger als ein Zehntel, in den neuen Ländern ungefähr ein Fünftel der entsprechenden Effekte der persönlichen Steuern aus; unter Berücksichtigung des geringen Volumens der Transfers mit vorwiegend vertikaler Ausrichtung ergibt sich aber eine recht hohe Effizienz. Sie scheint in Westdeutschland zwischen 1988 und 1993 allerdings etwas zurückgegangen zu sein, ähnlich wie der ausgleichende Einfluss der persönlichen Steuern. Schließlich zeigt sich für das Kindergeld eine nur mäßige relative Reduzierung der Ungleichheit der personellen Einkommensverteilung, die 1993 in West- wie in Ostdeutschland nur ungefähr zwei Dritteln des Anteils am Einkommensaggregat entspricht. Dies ist angesichts der horizontalen Ausrichtung des Familienlastenausgleichs in Deutschland nicht verwunderlich, könnte aber für eine Zieldiskussion im Zusammenhang mit Reformüberlegungen Anlass geben.
Ziel der hier vorgestellten Arbeit ist es, einen Eindruck über die Größenordnung der Kosten eines Bürgergeldmodells als alternatives Grundsicherungssystem zu gewinnen. Dazu wurde eine formale („impact“-) Partialinzidenzanalyse mit Hilfe einer statischen Simulation auf der Basis von Mikrodaten der Einkommens- und Verbrauchsstichproben 1983 und 1988 durchgeführt. Die Ergebnisse können nur als ungefähre Orientierungspunkte interpretiert werden, zumal sie sich auf den Transferbereich beschränken. Bei der Konkretisierung des sozio-kulturellen Existenzminimums wurde im wesentlichen an das bestehende Sozialhilferecht angeknüpft, und für das anzurechnende Einkommen wurde schwerpunktmäßig ein Transferentzugssatz von 50% unterstellt. Die Berechnungen führen zu erheblichen Mehrkosten des Bürgergeldmodells gegenüber dem gegenwärtigen Nebeneinander verschiedener Mindestsicherungsleistungen (mit deutlich höheren Transferentzugssätzen), die z. gr. T. durch die auch oberhalb des Existenzminimums (bis zu dessen doppeltem Betrag) bestehenden potentiellen Ansprüche bedingt sind. Die Nettokosten hätten 1988 fast ein Drittel des Aufkommens der Lohn- und Einkommensteuer ausgemacht, so daß die hier vorgestellte Reformvariante als kaum finanzierbar bezeichnet werden kann. Es wäre wohl utopisch anzunehmen, daß die möglichen positiven Anreizeffekte des verminderten Transferentzugssatzes zu einer Senkung des Bürgergeldvolumens in ähnlicher Größenordnung führen würde. Mit Blick auf die Gegenwart ist zudem zu bedenken, daß seit der Wiedervereinigung das Transfervolumen im Falle der Einführung eines Bürgergeldes wesentlich höher als in der hier präsentierten Simulationsrechnung ausfallen dürfte, und zwar auch in Relation zum Volkseinkommen. Denn die schrittweise Angleichung der Einkommen in Ostdeutschland an das westdeutsche Niveau bewirkt, daß in der Übergangszeit die Haushaltseinkommen in den neuen Bundesländern vergleichsweise häufiger und tendenziell stärker unterhalb des Existenzminimums liegen als in Westdeutschland - es sei denn, für Ostdeutschland würde das relevante Existenzminimum deutlich niedriger als hier vorgeschlagen definiert; dies wäre aber nicht sinnvoll und politisch kaum tragbar. Eine Reform der sozialen Mindestsicherung nach dem Muster einer Negativen Einkommensteuer würde also zu erheblichen Mehrkosten führen. Bei allen Vorteilen, die ein Bürgergeldsystem mit 50%igem Transferentzugssatz haben mag, ist die Finanzierungsfrage völlig offen; bei höherem Transferentzugssatz wäre das Problem zwar weniger gravierend, aber nicht gelöst.
Die langfristige Entwicklung der personellen Einkommensverteilung in der Bundesrepublik Deutschland
(1998)
In diesem Beitrag zur Frage nach dem Ausmaß von Einkommensarmut von Familien stehen zwei Aspekte im Mittelpunkt. – Zum einen ist im Vorfeld von Verteilungsanalysen die Art der Einkommensgewichtung in Mehrpersonenhaushalten zu klären. Nach Abwägung verschiedener Ansätze zur Ableitung einer Äquivalenzskala wurde eine Präferenz für ein institutionell orientiertes Gewichtungsschema, approximiert durch die alte OECD-Skala, begründet. – Zum anderen wurde der Einfluss der Frauenerwerbsbeteiligung auf die Einkommenssituation von Familien mit Kindern empirisch untersucht. Von prekären Einkommensverhältnissen und Einkommensarmut sind vor allem Familien mit geringfügig beschäftigter oder nichterwerbstätiger Partnerin sowie Alleinerziehende – Letztere wiederum bei fehlender Erwerbstätigkeit besonders stark – betroffen, wobei in den neuen Ländern die Situation wesentlich brisanter ist als in den alten Ländern. Bei politischen Maßnahmen sollten Erwerbswünsche der Frauen und Bedürfnisse der Familien berücksichtigt werden. Von daher sind Transfers im Rahmen des Familienleistungsausgleichs und die öffentliche Förderung von Kinderbetreuungseinrichtungen nicht als konkurrierende, sondern eher als komplementäre Konzepte zu diskutieren.
Es gehört zu den Mindestansprüchen des Sozialstaats, bedürftigen Personen ein soziokulturelles Existenzminimum zu sichern. In Deutschland sollen gegenwärtig insbesondere die Leistungen der Sozialhilfe und der Grundsicherung für Arbeitsuchende dafür sorgen, dass dieses Minimalziel erreicht wird. Ob dies gelingt, ist jedoch fraglich, da erhebliche Teile der Bedürftigen ihnen zustehende Leistungen nicht in Anspruch nehmen. Die Statistiken über Leistungsempfänger/innen geben also nur "die halbe Wahrheit" über Bedürftigkeit in Deutschland wieder. Vor der Hartz-IV-Reform kamen auf drei Grundsicherungsempfänger/innen mindestens zwei, eher drei weitere Berechtigte, die von ihrem Anspruch keinen Gebrauch machten. Dabei waren einige gesellschaftliche Gruppen von verdeckter Armut besonders stark betroffen: alleinstehende Frauen, Paarhaushalte mit erwerbstätigem Haushaltsvorstand und Altenhaushalte. Die Einführung des Arbeitslosengeldes (Alg) II im Zuge der Hartz-IV-Reform konnte zwar die verdeckte Armut von früheren Arbeitslosenhilfebeziehenden vermindern. Doch andere Bedürftige, insbesondere Erwerbstätigenhaushalte mit geringem Einkommen, nehmen offensichtlich ihnen zustehende Leistungen nach wie vor häufig nicht in Anspruch. Die Gründe für das Phänomen der verdeckten Armut sind vielfältig. Wesentliche Ursachen sind offenbar, dass viele Bedürftige die relevanten gesetzlichen Regelungen nicht kennen oder mit der Inanspruchnahme staatlicher Hilfeleistungen Stigmatisierungsängste verbinden. Dem könnte entgegengewirkt werden, indem offensiv über bestehende Ansprüche informiert und ein vorurteils- und diskriminierungsfreies Klima im Umgang mit Hilfebedürftigen gefördert wird.
Im vorliegenden Papier werden drei Ansätze zur Reform des Familienleistungsausgleichs (FLA) mit jeweils zwei Varianten dargestellt und hinsichtlich ihrer fiskalischen Effekte und Wirkungen in verschiedenen Segmenten der Einkommensverteilung systematisch verglichen. – Mit dem weitestgehenden Konzept, der Kindergrundsicherung, wird ein Existenz sicherndes und zu versteuerndes Kindergeld in Höhe von monatlich 502 Euro bzw. 454 Euro pro Kind vorgeschlagen. Die bisherigen kindbedingten Freibeträge und mehrere Sozialleis-tungen könnten entfallen bzw. reduziert werden. – Daneben werden Kindergelderhöhungen auf einheitlich 238 Euro bzw. 328 Euro pro Kind und Monat, die allen Kindern – auch denen im SGB II-Leistungsbezug – zugute kommen sollen, untersucht. Das Kindergeld wäre wie bisher nicht zu versteuern, die bisherigen kindbedingten Freibeträge würden aber entfallen. – Schließlich wird der Vorschlag einer deutlichen Erhöhung des Kinderzuschlags bei reduzierter Mindesteinkommensgrenze und Wegfall der Höchsteinkommensgrenze erörtert. Zudem ist bei diesem Ansatz ein nochmals erhöhter Kinderzuschlag bei Alleinerziehenden – analog zum Mehrbedarfszuschlag nach dem SGFB II – (erste Variante) oder eine Herabsetzung der Transferentzugsrate auf Nichterwerbseinkommen von 100% auf 70% (zweite Variante) vorgesehen. Die zu erwartenden fiskalischen Belastungen der einfachen Kindergelderhöhung (ohne Be-steuerung) können ohne Weiteres hochgerechnet werden (16 bzw. 35 Mrd. Euro p. a.), die der anderen Reformmodelle sind aber ohne mikroanalytische Fundierung unter Berücksichtigung der Einkommensverteilung kaum abschätzbar. Zwar lassen sich auch die Bruttokosten der Kindergrundsicherung auf einfachem Wege ermitteln (Multiplikation der Kindergeld-Kinder mit der Betragshöhe), die Aggregate der davon abzusetzenden zahlreichen Einsparungen bei anderen Sozialleistungen und insbesondere der Steuermehreinnahmen sind allerdings nicht offensichtlich. Eine erste Überschlagsrechnung hat ergeben, dass die Nettokosten der ersten „großzügigen“ Variante der Kindergrundsicherung (502 Euro) denen der Kindergelderhöhung auf das sächliche Existenzminimum (322 Euro) ohne Besteuerung ungefähr gleich sind (in der Größenordnung von 35 Mrd. Euro). Eine genauere Quantifizierung kann aber nur auf der Ba-sis repräsentativer Mikrodaten und eines Simulationsmodells erfolgen, da insbesondere der Besteuerungseffekt der Kindergrundsicherung von der faktischen Einkommensverteilung abhängt. Auch eine Kostenschätzung für die Kinderzuschlagsreform bedarf mikroanalytischer Verfahren; ungeachtet dessen würde diese auf einen begrenzten Einkommensbereich gerichte-te Reform aber eindeutig die geringsten Kosten verursachen. Für einen systematischen Vergleich der Verteilungswirkungen der Reformvorschläge werden in der vorliegenden Arbeit Modellrechnungen für zwei ausgewählte Haushaltstypen präsen-tiert. Dabei wird deutlich, dass mit dem vergleichsweise begrenzten Konzept der Ausweitung des Kinderzuschlags die Situation von Familien in prekären Einkommensverhältnissen bis zu Familien der unteren Mittelschicht deutlich verbessert werden könnte. Inwieweit dieser Effekt eintreten würde, hängt allerdings auch vom Inanspruchnahmeverhalten ab; bisher ist die Nicht-Inanspruchnahme von Kinderzuschlag und Wohngeld weit verbreitet. Zudem würde sich die Situation der ärmsten Familien, die auf SGB II-Leistungen angewiesen sind, nicht verbessern, und am oberen Rand würden die Entlastungseffekte des FLA als Folge der kind-bedingten Freibeträge weiterhin mit dem elterlichen Einkommen zunehmen. Demgegenüber würden sich bei den Varianten der Kindergelderhöhung (ohne Besteuerung) die deutlichen Verbesserungen gegenüber dem Status quo gleichmäßig über das Einkommensspektrum vom Niedriglohnsegment – bei unverändert problematischen Effekten des Kinderzuschlags (Ein-kommensbruchstelle bei Höchsteinkommensgrenze) – bis in obere Schichten verteilen und erst am oberen Rand mit steigendem Einkommen sinken (infolge des Wegfalls der bisherigen kindbedingten Freibeträge). Die Förderungen durch die Kindergrundsicherung schließlich würden am stärksten im unteren und unteren Mittelbereich ausfallen und – im Gegensatz zu anderen Konzepten – insbesondere verdeckte Armut systembedingt, also quasi „automatisch“, weitgehend abbauen. Im oberen Mittelbereich und hauptsächlich in höheren Schichten würden die Transfers dagegen mit zunehmendem Einkommen kontinuierlich abnehmen. Insgesamt würde dies zu einem vergleichsweise stetig steigenden Verlauf des verfügbaren Familieneinkommens führen; die wegen der hohen Transferentzugsraten des Kinderzuschlags – gegebenenfalls in Kombination mit Wohngeld – häufigen Befürchtungen negativer Arbeitsanreize im unteren Einkommensbereich wären gegenstandslos. Inwieweit die hier diskutierten Reformkonzepte zu einem Abbau von Kinder- und Familien-armut und zu weniger Ungleichheit der personellen Einkommensverteilung führen können, lässt sich allein auf der Basis von Modellrechnungen allerdings nicht absehen. Dazu bedarf es detaillierter Analysen auf der Basis von repräsentativen Mikrodaten, die die faktische Ein-kommensverteilung abbilden und Simulationsrechnungen zur Quantifizierung der Effekte der Reformvarianten – unter Einbeziehung der Finanzierung der jeweiligen Nettokosten – ermöglichen. Daran wird im Projekt „Vom Kindergeld zu einer Grundsicherung für Kinder“ auf Basis der Daten des Sozio-ökonomischen Panels (SOEP) 2007 gearbeitet; die Repräsentativität des Datensatzes hinsichtlich des Nachweises von Einkommens-, insbesondere Transferar-ten wurde bereits geprüft – mit gutem Ergebnis.
Vom Kinderzuschlag zum Kindergeldzuschlag : ein Reformvorschlag zur Bekämpfung von Kinderarmut
(2007)
Ausgehend von einer kritischen Analyse des im Zuge der Hartz IV-Reform 2005 eingeführten Kinderzuschlags wird in der vorliegenden Studie ein Reformkonzept zur Bekämpfung von Kinderarmut entwickelt und eine quantitative Abschätzung der unmittelbaren Reformwirkungen vorgenommen. Bei der Gestaltung des Reformvorschlags wurde an Grundprinzipien des allgemeinen Familienleistungsausgleichs angeknüpft. Dieser sollte unabhängig von der jeweiligen Armutsursache das Existenzminimum des Kindes nicht nur von der Steuer freistellen, sondern im Bedarfsfall durch positive Transfers – mit einem Kindergeldzuschlag – gewährleisten. Dies erfordert a) die Aufstockung des Kindergeldes durch einen Zuschlag auf die Höhe des sächlichen Existenzminimums, also um maximal 150 Euro auf 304 Euro – bei Alleinerziehenden wegen besonderer Mehrbedarfe für das erste Kind um maximal 250 Euro auf 404 Euro; b) den Verzicht auf eine zeitliche Befristung des Kindergeldzuschlags; c) die Berücksichtigung des Familieneinkommen nach Abzug eines Freibetrages in Höhe des pauschalisierten Existenzminimums der Eltern bzw. des Elternteils (1.238 Euro bzw. 860 Euro); d) eine mäßige (mit Besteuerungsgrundsätzen vereinbare) Anrechnung des zu berücksichtigenden Einkommens – wir schlagen eine Transferentzugsrate von 50% vor; e) den Verzicht auf eine Berücksichtigung des Vermögens. Wesentliche Unterschiede des Reformkonzepts gegenüber dem derzeitigen Kinderzuschlag liegen in der Ersetzung der „spitzen“ Berechnung des elterlichen Existenzminimums durch eine Pauschale und in dem Verzicht zum Einen auf eine explizite Höchsteinkommensgrenze – aus der Transferentzugsrate ergibt sich freilich eine implizite Höchsteinkommensgrenze – und zum Anderen auf eine Mindesteinkommensgrenze. Es bleibt den Eltern also unbenommen, den Kindergeldzuschlag in Anspruch zu nehmen, selbst wenn ihre Einkommensverhältnisse und individuellen Wohnkosten auf einen höheren ALG II-Anspruch schließen lassen, den sie aber nicht wahrnehmen – sei es aus Stigmatisierungsangst, aus Unwissenheit, weil sie den Verweis auf kleine Ersparnisse befürchten oder sich von dem bürokratischen Aufwand abschrecken lassen. Aus vorliegenden Schätzungen geht hervor, dass aus den genannten Grün den das Ausmaß verdeckter Armut groß ist. Dem könnte durch einen vergleichsweise unbürokratischen Kindergeldzuschlag entgegengewirkt werden, insbesondere wenn der Leistungsträger, also die Familienkasse, verpflichtet wird, bei sehr geringem Einkommen des Antragstellers diesen auf möglicherweise bestehende höhere ALG II-Ansprüche hinzuweisen. Zur Abschätzung der unmittelbaren Reformwirkungen wurde ein Mikrosimulationsmodell entwickelt und mit den Daten des Sozio-ökonomischen Panels 2006 in mehreren Varianten gerechnet. Auf der Basis einer bereinigten Stichprobe ergeben sich – je nach Reformvariante – 3 Mio. bis 3,6 Mio. potenziell begünstigte Kinder, was etwa einem Sechstel bzw. einem Fünftel aller Kinder, für die Kindergeld bezogen wird, entspricht. Unter den Kindern von Alleinerziehenden würde die Empfängerquote mit gut einem Drittel weit überdurchschnittlich ausfallen. Die fiskalischen Bruttokosten des Reformmodells würden sich auf 3,7 Mrd. bzw. 4,5 Mrd. Euro jährlich (11% bzw. 13% der derzeitigen Kindergeldausgaben) belaufen; sie würden durch einige Einsparungen beim nachrangigen Wohngeld, bei ausbildungsbedingten Transfers sowie beim ALG II – sofern einige Anspruchsberechtigte den Bezug des Kindergeldzuschlags vorziehen – etwas vermindert werden. Der durchschnittliche Zahlbetrag pro Bedarfsgemeinschaft mit Anspruch auf Kindergeldzuschlag liegt bei 190 Euro p. M., der Median bei 150 Euro. Mit dem insgesamt begrenzten Mittelaufwand kann eine erhebliche Verminderung relativer Einkommensarmut von Familien erreicht werden. Die derzeit bei etwa 18% liegende Armutsquote von Kindern, für die Kindergeld bezogen wird, würde nach Einführung des Kindergeldzuschlags um etwa vier Prozentpunkte zurückgehen, die aller Mitglieder in den Familien von 16% um drei Prozentpunkte. Mit etwa zwei Dritteln lebt der größte Teil der potenziellen Anspruchsberechtigten in erwerbstätigen Familien, und die relative stärkste Verminderung der Armutsquote ergibt sich bei Familien mit Vollzeiterwerbstätigkeit. Die mit dem Kindergeldzuschlag zu bewirkende Verminderung von Kinderarmut würde wegen der hohen Erwerbsquote von Familien also mit einem Abbau von Armut trotz Arbeit einhergehen. Besonders große Reformwirkungen zeigen sich bei den Alleinerziehenden, für welche die Simulation eine Reduzierung der derzeit bei 40% liegenden Armutsquote um etwa acht Prozentpunkte ergibt. Dennoch verbliebe die Armutsquote auch nach Einführung des Kindergeldzuschlags auf einem bedrückend hohen Niveau. Dies ist ganz überwiegend auf die große Zahl der Alleinerziehenden mit Bezug von ALG II und Sozialgeld bzw. Sozialhilfe zurückzuführen, die annahmegemäß nach der Reform im Grundsicherungsbezug verbleiben, den vorrangigen Kindergeldzuschlag also nicht in Anspruch nehmen. Bei den Paarfamilien zeigt sich – relativ gesehen – ein ähnlicher Effekt des Kindergeldzuschlags wie bei den Alleinerziehenden; die Armutsquote von derzeit 12,5% würde um ein Fünftel auf 10% zurückgehen. Dabei fällt die Reformwirkung umso größer aus, je mehr Kinder in der Familie leben. Bei den trotz Einführung des Kindergeldzuschlags unter der relativen Armutsgrenze verbleibenden Paarfamilien handelt es sich zu einem geringeren Teil als bei den Alleinerziehenden um Empfänger von nachrangigen allgemeinen Grundsicherungsleistungen und zu einem größeren Teil um Fälle, bei denen auch das um den Kindergeldzuschlag erhöhte Einkommen die Armutsgrenze nicht erreicht. Ihre Situation würde sich dennoch durch die Reform erheblich verbessern, da die relative Armutslücke im Durchschnitt von 21% auf 14% zurückgehen würde; dies entspricht einer Einkommenserhöhung von durchschnittlich 267 Euro. Abschließend bleibt darauf hinzuweisen, dass der hier vorgestellte Reformvorschlag lediglich als erster Schritt zu einer allgemeinen Grundsicherung für Kinder zu verstehen ist. Er wurde unter dem Aspekt einer schnellen Umsetzbarkeit entwickelt, sollte aber weiter reichende Überlegungen nicht verdrängen. Diese haben nicht nur das sächliche Existenzminimum des Kindes, sondern darüber hinaus den verfassungsgerichtlich festgestellten Betreuungs- und Erziehungs- oder Ausbildungsbedarf (BEA) in den Blick zu nehmen. Er wird im Rahmen der Einkommensbesteuerung durch einen Freibetrag berücksichtigt (§ 32 Abs. 6 EStG), ist in die Bemessung des hier vorgestellten Kindergeldzuschlags aber nicht eingegangen. Eine systematische Weiterentwicklung des Familienleistungsausgleichs im Steuerrecht würde die Einführung eines einheitlichen (Brutto-) Kindergeldes zur Abdeckung von sächlichem Existenzminimum und BEA erfordern, das entsprechend der Leistungsfähigkeit der Eltern, also nach dem allgemeinen Einkommensteuertarif, zu versteuern wäre (Lenze 2007).
Die Auswertungen der EVS 2003 zur Höhe und Struktur der Konsumausgaben der Paarhaushalte mit einem Kind im unteren Einkommensbereich erfolgten vorrangig mit dem Ziel, Anhaltspunkte zur Beurteilung des gegenwärtigen Niveaus der mit Arbeitslosengeld II und Sozialgeld gegebenen Grundsicherung von Familien zu erarbeiten. Die Ergebnisse vermitteln einen ersten Eindruck über die insgesamt stark eingeschränkten Teilhabemöglichkeiten von Familien mit Bezug von Grundsicherungsleistungen. ...
Die vorliegende Untersuchung der effektiven Stundenlöhne in Deutschland erfolgte im Hin-blick auf die Frage nach der Ungleichheit ihrer Verteilung und der Einhaltung eines Kriteri-ums minimaler Leistungsgerechtigkeit. Ausgangspunkt ist die Annahme eines komplexen Gerechtigkeitsempfindens in der Gesellschaft, das neben dem Marktmechanismus als einem Motor für Leistung und leistungsabhängige Einkommen auch individuelle Anstrengungen sowie die Folgen faktischer Marktunvollkommenheiten bzw. faktischen Marktversagens berücksichtigt. Zur Approximation der ergänzenden Aspekte von Leistungsgerechtigkeit wird an relative Lohnpositionen angeknüpft: Lohneinkommen, die einen gesellschaftlichen Mittelwert sehr weit – bezogen auf den Durchschnitt um mehr als die Hälfte, und alternativ bezogen auf den Median um mehr als ein Drittel – unterschreiten, gelten als Indikator für Zielabweichungen. Implizit wird damit unterstellt, dass individuelle Leistungsunterschiede begrenzt, die aus dem Marktmechanismus folgende Differenzierungen aber grenzenlos sind. Die sich aus dem hier gewählten Kriterium ergebenden Niedriglohngrenzen entsprechen ungefähr alternativ abgeleiteten Grenzwerten, die aus der Norm folgen, dass eine Vollzeiterwerbstätigkeit mindestens das eigene sozio-kulturelle Existenzminimum zuzüglich einer Leistungskomponente sichern sollte. Neben dem Aspekt minimaler Leistungsgerechtigkeit für den unteren Rand der Verteilung werden keine weiteren konkreten Normen zur Beurteilung der Zielangemessenheit der beobachteten Verteilung der Lohnsätze gesetzt. Dies würde den Rahmen dieser Untersuchung sprengen. Die empirische Analyse auf Basis des Sozio-ökonomischen Panels (SOEP) und der Einkommens- und Verbrauchsstichprobe (EVS) konzentriert sich auf das Jahr 2003 und wird ergänzt um einige Auswertungen für 1998, die allerdings nur mit dem SOEP durchgeführt werden können. Obwohl aus dem SOEP generell eine größere Ungleichheit der Verteilung resultiert, halten sich die Unterschiede zwischen den Ergebnissen beider Datenquellen in Grenzen. ...
Zusammenfassung und Schlussfolgerungen Die verschiedenen Alternativrechnungen zur Bemessung des Eckregelsatzes auf Basis der Daten der EVS 2003 und der normativen Setzungen der derzeit gültigen Regelsatzverordnung (RSV) haben zu Beträgen leicht über (Variante 1b) bis mäßig unter (Variante 4b) dem gegenwärtigen Satz von 345 Euro geführt. Da sich aus einer kritischen Betrachtung der grundlegenden Vorentscheidungen, auf denen die RSV aufbaut, einige fragwürdige bzw. nicht konsistente Einzelregelungen ergeben haben, erscheint das seit 2005 gültige Niveau des gesetzlich anerkannten Existenzminimums als tendenziell zu gering, zumal der Eckregelsatz auch für den Leistungsanspruch von Familien mit Kindern maßgeblich ist. Darüber hinaus ist zu bedenken, dass die Herausnahme der Sozialhilfebezieher aus der Referenzgruppe gemäß RSV unter theoretischen Gesichtspunkten nicht hinreichend ist, um Zirkelschlüsse - vom Ausgabeverhalten der Hilfebedürftigen auf deren Existenzminimum - zu vermeiden. Denn nur etwa die Hälfte bis drei Fünftel der Bedürftigen nehmen ihre HLu-Ansprüche wahr, die weiteren Anspruchsberechtigten leben in verdeckter Armut. Die Referenzgruppe zur Ermittlung des sozio-kulturellen Existenzminimums müsste also auch um die so genannte Dunkelziffer der Armut (Personen in verdeckter Armut) bereinigt werden, was vermutlich zu einem leicht erhöhten (regelsatzrelevanten) Ausgabenniveau führen und Forderungen nach einer moderaten Anhebung des Eckregelsatzes unterstreichen würde. Abschließend soll der letztlich normative Charakter jeglicher Definition des Existenzmi-nimums nochmals verdeutlicht werden, aus dem die Notwendigkeit einer gesellschaftspoliti-schen Diskussion dessen, was ein menschenwürdiges Dasein und Chancengerechtigkeit - nicht nur im formalen, sondern im materiellen Sinne - ermöglicht, folgt. Dass mit dem so genannten Statistik-Modell der Regelsatzbemessung keineswegs Objektivität bzw. Wertur-teilsfreiheit, eher nur Überprüfbarkeit oder Nachvollziehbarkeit erreicht wird, haben die An-merkungen zu den regelsatzrelevanten Anteilssätzen einzelner Ausgabenpositionen in Kapitel 3.2 gezeigt. Wie stark der Einfluss normativer Vorentscheidungen auf das Niveau des sozio-kulturellen Existenzminimums ist, zeigt sich aber bereits in der Auswahl der Alleinstehenden als Referenzgruppe. Damit wird bei der Analyse des regelsatzrelevanten Ausgabeverhaltens auf eine Gruppe Bezug genommen, die überdurchschnittlich von relativer Einkommensarmut betroffen ist.13 Alternativ könnten auch die Paarhaushalte ohne Kinder mit ihrem vergleichs-weise geringen Armutsrisiko als Referenzgruppe definiert werden. Nach einer ersten Abschätzung ergibt sich für das unterste Quintil von Paaren ohne Kind ein regelsatzrelevanter Konsum in Höhe von gut 700 Euro; bei gegebenen Regelsatzproportionen folgt daraus ein Existenzminimum (ohne Kosten für Unterkunft und Heizung) von gut 390 Euro gegenüber derzeit 345 Euro bei Alleinstehenden und von etwa 1.130 Euro gegenüber 828 Euro bei Paa-ren mit einem Kind. Mit diesem Beispiel ist nicht die Empfehlung einer entsprechend starken Leistungsanhebung verbunden, sondern lediglich ein Hinweis darauf, dass das derzeitige Ver-fahren der Regelsatzbemessung restriktiv angelegt ist und mit aktuellen Daten eher eine Er-höhung als eine Absenkung des Niveaus des Existenzminimums begründet werden kann.
Sozialpolitische Auseinandersetzungen kursieren gegenwärtig verschärft um die Gestaltung der Sicherung des sozio-kulturellen Existenzminimums, um eine angebliche "Kostenexplosion" bei der Grundsicherung für Arbeitsuchende und um Vermutungen über verbreiteten Leistungsmissbrauch. Der Blick ist also stark auf die staatlicherseits auf Basis des Sozialgesetzbuches (SGB) über Transfers "zu bekämpfende" und "bekämpfte" Armut gerichtet. Vor diesem Hintergrund sollen die auf relative Grenzen – 50% des arithmetischen Mittels oder 60% des Medians der Nettoäquivalenzeinkommen – bezogenen Studien über Armut in Deutschland um eine Armutsanalyse ergänzt werden, die den Einkommensbereich unterhalb des gesetzlichen Existenzminimums in den Fokus nimmt. In der folgenden Untersuchung geht es nicht nur um die Größe der edürftigenBevölkerungsgruppe insgesamt, sondern darüber hinaus um die Bedeutung von Ursachen der Hilfebedürftigkeit – Arbeitslosigkeit, Teilzeiterwerbstätigkeit, niedriges Erwerbseinkommen, Alter –, um geschlechtsspezifische Unterschiede und um die Betroffenheit von Kindern. Hier fehlt es bisher an zeitnahen empirischen Informationen. Daten über die Zahl und Struktur der Empfänger von Grundsicherungsleistungen – also von Arbeitslosengeld II (Alg II) bzw. Sozialgeld, Grundsicherung im Alter und bei Erwerbsminderung oder Hilfe zum Lebensunterhalt (HLu) der Sozialhilfe – vermitteln nur die "halbe Wahrheit". ...
In this work we investigate phenomenological aspects of an anisotropic quark-gluon plasma. In the first part of this thesis, we formulate phenomenologicalmodels that take into account the momentumspace anisotropy of the system developed during the expansion of the fireball at early-times. By including the proper-time dependence of the parton hard momentum scale, phard(), and the plasma anisotropy parameter, Xi, the proposed models allow us to interpolate from 0+1 pre-equilibrated expansion at early-times to 0+1 ideal hydrodynamics at late times. We study dilepton production as a valuable observable to experimentally determine the isotropization time of the system as well as the degree of anisotropy developed at early-times. We generalize our interpolating models to include the rapidity dependence of phard and consider its impact on forward dileptons. Next, we discuss how to constrain the onset of hydrodynamics by demanding two requirements of the solutions to the equations of motion of viscous hydrodynamics. We show this explicitly for 0+1 dimensional 2nd-order conformal viscous hydrodynamics and find that the initial conditions are non-trivially constrained. Finally, we demonstrate how to match the initial conditions for 0+1 dimensional viscous hydrodynamics from pre-equilibrated expansion. We analyze the dependence of the entropy production on the pre-equilibrium phase and discuss limitations of the standard definitions of the non-equilibrium entropy in kinetic theory.
Die vorliegende Dissertationsschrift befasst sich mit der molekulargenetischen Analyse zweier Basalganglienerkrankungen. Zum einen wurden Patienten mit M. Parkinson genetisch untersucht, zum anderen Patienten mit autosomal dominanter zervikaler Torsionsdystonie. Die Aufgabe bestand in der passenden Wahl der Methode zur jeweiligen humangenetischen Fragestellung. Der erste Teil handelte von der Suche der krankheitsverursachenden Mutation für die autosomal dominante zervikale Torsionsdystonie mit Spätmanifestation auf Chromosom 18p (Kandidatenlokus DYT7). Die erkrankte Familie deutscher Herkunft zeigt dystone Symptome mit Betonung auf kraniozervikale und brachiale Körperabschnitte und ist somit die weltweit einzige bekannte Familie mit Vererbung dieser ansonsten sporadisch auftretenden Erkrankung. Die PCR-Sequenzierung der Kandidatengene ZFP161, LOC390828, NDUFV2 und PTPRM auf dem DYT7 Lokus erbrachte bei den sieben erkrankten Familienmitgliedern im Vergleich zu nicht verwandten Kontrollen (Ehepartner und 96 Kontrollen der Blutbank) keinen Aminosäureaustausch, der ausschließlich bei den erkrankten Probanden zu finden war. Technisch konzentrierte sich diese Untersuchung auf die Amplifizierung und anschließende Sequenzierung jedes einzelnen Exons in den zu untersuchenden Proben, und die Bestätigung einer putativen Mutation mittels Verdau der PCR-Produkte durch Restriktionsendonukleasen. Die Auswahl der Kandidatengene erfolgte aufgrund der Annahme pathobiochemischer Mechanismen, die durch andere Formen der vererbten Torsionsdystonie oder zellbiologische Experimente als krankheitsverursachend gelten. Auch wenn keine Mutation gefunden wurde, so konnten bereits bekannte und neue single nucleotide polymorphisms (SNP) etabliert werden. Die zweite Thematik befasste sich mit der Frage, ob das bereits bekannte Parkinson-Gen UCH-L1 auf dem PARK5 Lokus krankheitsverursachend für den autosomal dominanten M. Parkinson in einer spanischen Familie ist. Diese parametrische Kopplungsanalyse wurde mithilfe der heißen Polyacrylamid-Gelelektrophorese (PAGE) durchgeführt. Dabei konnte in allen Patienten und den Verwandten ersten Grades über Analyse der Mikrosatelliten nördlich und südlich der Kandidatenregion (UCH-L1) in einem Bereich sehr niedriger Rekombinationswahrscheinlichkeit eine Haplotypisierung erfolgen. Die Haplotypisierung zeigte nicht die erforderliche Identifizierung eines Krankheitsallels bei allen betroffenen Probanden. Somit ist hier neben der einzig bekannten deutschen PARK5 Familie keine weitere Familie mit UCH-L1 Mutation bestätigt worden. Dementsprechend ist die Ätiologie dieser Erkrankung in dieser Familie noch unklar, was aber der Bedeutung des Ubiquitin-Proteasom Systems in der Parkinson-Entität keinen Abbruch getan hat. Da alle anderen autosomal dominanten Parkinson-Loci ausgeschlossen sind, muss sich die Ursache für den M. Parkinson in dieser Familie in einem heute noch unbekannten Gen befinden. Weitere Untersuchungen im Rahmen eines Genomscans sind aufgrund der geringen Fallzahl nicht möglich. Die letzte Aufgabe dieser Arbeit bestand in der Durchführung einer Assoziationsstudie mit den putativen PINK1 (PARK6) Interaktoren NME4 und MTIF3 für den mehrheitlich sporadisch auftretenden M. Parkinson. Dabei wurden in zwei unabhängigen Studiengruppen mit insgesamt 453 sporadischen Parkinsonpatienten und 370 Kontrollen jeweils zwei SNPs auf gekoppelte Vererbung mit der Erkrankung untersucht. Der Unterschied zwischen den Testgruppen bestand im Studiendesign, da zum einen mit den Patienten nicht verwandte Kontrollen und zum anderen verwandte Kontrollen verwendet wurden. Die mit beiden Studientypen normalerweise auftretenden Probleme durch Stratifikation bzw. erniedrigte statistische Power konnten durch Kombination der Studien ausgeglichen werden. Das Methodenspektrum umfasste PCR und Restriktionsverdau, was zum Auffinden eines Kopplungsungleichgewichts für das Gen MTIF3 führte. Ein heterozygoter Basenaustausch für den Polymorphismus rs7669 erhöht signifikant das Relative Risiko an M. Parkinson zu erkranken, wohingegen der homozygote Basenaustausch das Krankheitsrisiko des Trägers signifikant erniedrigt. Bezüglich des Relativen Risikos wurde der Effekt der molekularen Heterosis nachgewiesen. Bei diesem mitochondrial lokalisierten Gen handelt es sich um einen Initiator der mitochondrialen Translation. Demzufolge besteht hier Einfluss auf die Homöostase und somit Funktionalität der Atmungskettenkomplexe, die als bedeutend für die Pathogenese des M. Parkinson angesehen werden. Die Verbindung zum mitochondrial lokalisierten PINK1 besteht aufgrund seiner Kinase-Aktivität in der An- und Abschaltung des mitochondrialen Translations - Initiationsfaktors. Aber auch die Wichtigkeit von NME4 konnte in dieser Studie trotz fehlender Assoziation nicht ausgeschlossen werden, da vorangehende experimentelle Ergebnisse dieses Protein bereits in den PINK1 Signalweg zuordnen konnten. MTIF3 könnte wohlmöglich ein wichtiger genetische Risikofaktor für den idiopathischen M. Parkinson sein. Es bleibt abzuwarten, ob zukünftige genetische und zellbiologische Experimente die Wichtigkeit, die in diesem Protein zu liegen scheint, bestätigen können.
Large amplitude intramolecular motions in non-rigid molecules are a fundamental issue in chemistry and biology. The conventional approaches for study these motions by far-infrared and microwave spectroscopy are not applicable when the molecule is non-polar. Therefore, in the current thesis an alternative approach for the investigation of large amplitude intramolecular motions was developed and tested. This new method is based on femtosecond rotational degenerate four-wave mixing spectroscopy (fs DFWM), which is a particular implementation of rotational coherence spectroscopy. The method was successfully applied for the investigation of pseudorotation in pyrrolidine and the ring-puckering vibration in cyclopentene. Another important subject is the photophysics of molecules and molecular clusters which have an ultrashort lifetime of their electronically excited state (photoreactivity). These ultrashort lifetimes often represent a protective mechanism causing photostability. The photoreactivity is usually the manifestation either of an “elementary” reaction, such as proton or electron transfer, which occurs in the excited state or of a fast non-radiative deactivation processes, such as internal conversion via conical intersection of the electronically excited and ground state. Due to a short-lived excited state, the conventional vibrational spectroscopic methods, such as IR depletion detected by resonance two-photon ionization spectroscopy (IR/R2PI), are not applicable for the structural investigation of these systems. Therefore, new approach, termed IR depletion detected by multiphoton ionization with femtosecond laser pulses (IR/fsMPI), was developed for studying the structure of photoreactive microsolvated molecules. The IR/fsMPI technique was applied for investigating the clusters of 1H-pyrrolo[3,2-h]quinoline with water/methanol as well as adenine- and 9-methyl-adenine-hydrates. In addition, the excited state dynamics of bifunctional azaaromatic molecule 7-(2'-pyridyl)indole (7PyIn) was studied by femtosecond pump-probe resonance excitation multiphoton ionization technique (fs REMPI). Under electronic excitation of this molecule a fast proton transfer (phototautomerization) takes place, which is followed by radiationless excited state deactivation process. The fs REMPI spectra lead to the conclusion that the phototautomerization in 7PyIn is coupled with a twisting of the molecule, and that the twisting provides an efficient channel for ultrafast radiationless excited state deactivation. This pattern of excited-state tautomerization/deactivation might be quite general.
Der G-Protein-gekoppelte Histamin-H3-Rezeptor (H3R) ist einer von vier bekannten Histamin-Rezeptorsubtypen. Die Verbreitung erstreckt sich hauptsächlich auf das ZNS, wo der Rezeptor maßgeblich an der Regulation des Schlaf-Wach-Rhythmus, der Kognition, der Aufmerksamkeit und dem Ernährungsverhalten beteiligt ist. Als Autorezeptor reguliert er die Darstellung und Freisetzung von Histamin im Gehirn und moduliert darüberhinaus als Heterorezeptor auch die Konzentration anderer wichtiger Neurotransmitter. Ein Ansatz für die Entwicklung neuer Arzneistoffe bei multifaktoriellen Erkrankungen entspringt der Hybridtheorie. In dieser Arbeit wurde der Hybridansatz durch verschiedene Varianten realisiert, bei denen die jeweiligen Pharmakophore durch Überlappung oder Aneinanderkopplung verknüpft wurden. Als Grundstruktur für das H3-Pharmakophor diente das 4-(3-Piperidin-1-ylpropoxy)-phenyl-Element, als andersartige Pharmakophore dienten neben Arzneistoffen aus der Gruppe der Neuroleptika, Antidepressiva und SSRI auch solche Pharmakophore, die das Wirkprofil von H3R-Liganden durch spezifische Eigenschaften (z. B. neuroprotektiv) ergänzen können. Bei der Kopplung der Pharmakophore lag der Fokus auf der Untersuchung von Aminvariationen. Mit Hilfe des Hybridansatzes wurden in dieser Arbeit zahlreiche neue und potente Histamin-H3-Hybridliganden entwickelt. Es wurden hohe Bindungsaffinitäten im nano- bis subnanomolare Bereich erzielt und wichtige Struktur-Wirkungsbeziehungen abgeleitet. In-vitro zeigte sich eine hohe Toleranz des H3R bezüglich der heterogenen Liganden, darunter solche mit sterisch anspruchsvollen, stark basischen und sauren Gruppen.
Einführung Seit Einführung der Diffusionstensorbildgebung- (DTI) basierten Traktographie von zerebralen Bahnsystemen besteht der Verdacht einer zu dünnen Ausdehnung der Faserbahnen in der unmittelbaren Nachbarschaft von zerebralen Läsionen. Der gegenüber der tatsächlichen Ausdehnung verminderte Durchmesser verjüngt sich zusätzlich mit zunehmendem Abstand von dem sog. seed-Volume (“seed-VOI”). Die unterrepräsentierte Ausdehnung der Faserbahnen stellt in der neurochirurgischen Operationsplanung und intraoperativen Neuronavigation ein erhebliches Problem bei der Beurteilung der Resektionsgrenzen von Tumoren bzw. der Grenze dringlich zu erhaltender eloquenter Faserbahnen dar. Mit einem zusätzlichen, auf die Läsion fokussierten Traktographie-Algorithmus – Lesion-based Fibertracking (LBFT) – soll die Auswertbarkeit von Faserbahnen in der Umgebung von intrazerebralen Läsionen verbessert werden. Der Algorithmus von LBFT wird vorgestellt und das Verfahren anhand der Darstellung von Bahnen des Tractus corticospinalis (TCS) mit dem Standardverfahren verglichen. Methode In 40 Patienten mit intrazerebralen Läsionen in Nachbarschaft zu kortikospinalen Bahnen (Pyramidenbahn) wurde eine Diffusionstensor-bildgebung und fMRT basierte Faserbahndarstellung des Tractus corticospinalis auf Grundlage eines „tensor-deflection-Algorithmus“ (TEND) durchgeführt. Hierfür wurden Bahnen von den kortikalen motorischen Repräsentationen der Hand, des Fußes und der Zunge zum Hirnstamm visualisiert. Im Standardverfahren wird ein würfelförmiges Volumen – das sog. seed-Volume oder Ursprungsvolumen – im Gyrus praecentralis entsprechend der anatomischen und funktionellen Bildgebung definiert. Ein zweites würfelförmiges Volumen, lokalisiert im Hirnstamm selektiert ausschließlich Fasern welche durch beide Volumen verlaufen. Die resultierenden Fasern werden bezüglich ihres Verlaufes durch typische anatomische Landmarken kontrolliert und ggf. korrigiert. Anschließend wird das Faserbündel mittels einer Oberflächenrekonstruktionstechnik („surface rendering“) dreidimensional rekonstruiert (iPlan 2.5Cranial, BrainLab®, Feldkirchen, Germany). Für das neue Verfahren des LBFT wird die Region definiert, in welcher die Faserbahn des Standardverfahrens der Läsion am nächsten kommt und hier, um die Faserbahn des Standardverfahrens, ein neues seed-Volume platziert, welches das Standardfaserbündel um 10 mm überragt. Traktographie und Segmentierung werden analog dem Standardverfahren durchgeführt. Fasern, die nicht den Gyrus praecentralis erreichen oder nicht durch den Pedunculus cerebri verlaufen, werden eliminiert. Die Faserzahl, die Größe der Faserbahnen und die Größendifferenz zwischen den Bahnen des Standardverfahrens und LBFT werden verglichen und das Verfahren auf inter- und intra-rater Reliabilität geprüft. Ergebnisse Das Standardverfahren und LBFT waren in allen 40 Patienten durchführbar. Die Faserzahl bei LBFT erhöhte sich signifikant gegenüber dem Standardverfahren um 383,27% (p<0,0001). Der maximale Durchmesser in der Ebene, in welcher das Faserbündel der Läsion am nächsten kommt, sowie der Durchmesser in Richtung der Läsion erhöhen sich signifikant um 171,75 % bzw. 196,45 % (jeweils p<0.0001). Daraus folgt eine durchschnittliche Zunahme des Durchmessers in Richtung der Läsion um 4.48mm (± 2.35). Fazit Die Fehleinschätzung des Durchmessers und der Distanz des TCS zu subkortikalen Läsionen bei Anwendung des Standardverfahrens DTI-basierter Traktographie stellt ein erhebliches Problem in der funktionellen neurochirurgischen Operationsplanung und intraoperativen Neuronavigation dar. Durch den zusätzlichen Schritt des LBFT kann die Fehleinschätzung korrigiert und der in vorhergehenden Studien eingeforderte Sicherheitsabstand standardisiert robust und reliabel realisiert werden.
Die lutherische Reformation war nicht nur eine Reformation von Glauben und Leben, sondern auch eine solche von Tod und Sterben. Mit den Predigten Luthers bei den Begräbnisfeierlichkeiten für die sächsischen Kurfürsten Friedrich den Weisen (1525) und Johann den Beständigen (1532), der Predigt bei Luthers eigenem Begräbnis (1546) und den jeweils begleitenden biographischen orationes Philipp Melanchthons formte sich eine neue Gattung der Totenmemoria aus, die von den Wittenberger Theologiestudenten an ihre späteren Wirkungsorte getragen wurde. Sie selbst waren es dann, in ihrer Funktion als Prediger, die das neue Medium der Leichenpredigt zu ihrer eigenen Verortung in der frühneuzeitlichen Gesellschaft nutzten, indem sie die Gruppe der evangelischen Geistlichen, in der Gestalt des jeweils Verstorbenen, als nachahmenswertes Vorbild christlicher Tugend priesen und ihre Rolle für den gesellschaftlichen Zusammenhalt herausstellten. Das so gezeichnete Bild bringt nicht nur das Amtsverständnis zum Ausdruck, sondern wirft auch Licht auf die jeweiligen Zeitumstände, den Bildungsweg der Verstorbenen, ihre Berufung als Prediger, Heiratsstrategien, Kinder und deren Entwicklung, Zuständigkeitsverteilungen im Amt, gesundheitliche und andere Beschwerden, ihren seelsorgerlichen Einsatz, ihre konfessionelle Ausrichtung und schließlich das ritualisierte Sterben. Somit sind gedruckte Leichenpredigten eine vielseitig auswertbare Quelle zur frühneuzeitlichen Alltagskultur, insbesondere hinsichtlich der Bevölkerungsgruppe, die uns sowohl als deren Autoren, wie als Verstorbene gegenübertritt. Die lutherische Reichsstadt Frankfurt am Main, deren Geistliche sich zur gemeinsamen Beratung in einem „Predigerministerium“ zusammenfanden, bietet hier ein besonders lohnendes Untersuchungsfeld. Die gute Überlieferungslage, die Bedeutung Frankfurts im Alten Reich, wie auch das, gerade am Beginn der Reformationsepoche, spannungsreiche Miteinander von Rat und Predigern ermöglichen es, an ausgewählten Beispielen die Etablierung, das Selbstverständnis und die wechselnden theologischen Herausforderungen der mit der Reformation entstandenen neuen Sozialgruppe der evangelischen Geistlichkeit im Wandel dreier Jahrhunderte zu verfolgen.
The dynamics of many systems are described by ordinary differential equations (ODE). Solving ODEs with standard methods (i.e. numerical integration) needs a high amount of computing time but only a small amount of storage memory. For some applications, e.g. short time weather forecast or real time robot control, long computation times are prohibitive. Is there a method which uses less computing time (but has drawbacks in other aspects, e.g. memory), so that the computation of ODEs gets faster? We will try to discuss this question for the assumption that the alternative computation method is a neural network which was trained on ODE dynamics and compare both methods using the same approximation error. This comparison is done with two different errors. First, we use the standard error that measures the difference between the approximation and the solution of the ODE which is hard to characterize. But in many cases, as for physics engines used in computer games, the shape of the approximation curve is important and not the exact values of the approximation. Therefore, we introduce a subjective error based on the Total Least Square Error (TLSE) which gives more consistent results. For the final performance comparison, we calculate the optimal resource usage for the neural network and evaluate it depending on the resolution of the interpolation points and the inter-point distance. Our conclusion gives a method to evaluate where neural nets are advantageous over numerical ODE integration and where this is not the case. Index Terms—ODE, neural nets, Euler method, approximation complexity, storage optimization.
Since the description of sepsis by Schottmüller in 1914, the amount on knowledge available on sepsis and its underlying pathophysiology has substantially increased. Epidemiologic examinations of abdominal septic shock patients show the potential for high risk posed by and the extensive therapy situation in the intensive care unit (ICU) (5). Unfortunately, until now it has not been possible to significantly reduce the mortality rate of septic shock, which is as high as 50-60% worldwide, although PROWESS' results (1) are encouraging. This paper summarizes the main results of the MEDAN project and their medical impacts. Several aspects are already published, see the references. The heterogeneity of patient groups and the variations in therapy strategies is seen as one of the main problems for sepsis trials. In the MEDAN multi-center study of 71 intensive care units in Germany, a group of 382 patients made up exclusively of abdominal septic shock patients who met the consensus criteria for septic shock (3) was analysed. For use within scores or stand-alone experiments variables are often studied as isolated variables, not as a multidimensional whole, e.g. a recent study takes a look at the role thrombocytes play (15). To avoid this limitation, our study compares several established scores (SOFA, APACHE II, SAPS II, MODS) by a multi-dimensional neuronal network analysis. For outcome prediction the data of 382 patients was analysed by using most of the commonly documented vital parameters and doses of medicine (metric variables). Data was collected in German hospitals from 1998 to 2001. The 382 handwritten patient records were transferred to an electronic database giving the amount of 2.5 million data entries. The metric data contained in the database is composed of daily measurements and doses of medicine. We used range and plausibility checks to allow no faulty data in the electronic database. 187 of the 382 patients are deceased (49 %).
At present, there are no quantitative, objective methods for diagnosing the Parkinson disease. Existing methods of quantitative analysis by myograms suffer by inaccuracy and patient strain; electronic tablet analysis is limited to the visible drawing, not including the writing forces and hand movements. In our paper we show how handwriting analysis can be obtained by a new electronic pen and new features of the recorded signals. This gives good results for diagnostics. Keywords: Parkinson diagnosis, electronic pen, automatic handwriting analysis
Attraction and commercial success of web sites depend heavily on the additional values visitors may find. Here, individual, automatically obtained and maintained user profiles are the key for user satisfaction. This contribution shows for the example of a cooking information site how user profiles might be obtained using category information provided by cooking recipes. It is shown that metrical distance functions and standard clustering procedures lead to erroneous results. Instead, we propose a new mutual information based clustering approach and outline its implications for the example of user profiling.
The Internet as the biggest human library ever assembled keeps on growing. Although all kinds of information carriers (e.g. audio/video/hybrid file formats) are available, text based documents dominate. It is estimated that about 80% of all information worldwide stored electronically exists in (or can be converted into) text form. More and more, all kinds of documents are generated by means of a text processing system and are therefore available electronically. Nowadays, many printed journals are also published online and may even discontinue to appear in print form tomorrow. This development has many convincing advantages: the documents are both available faster (cf. prepress services) and cheaper, they can be searched more easily, the physical storage only needs a fraction of the space previously necessary and the medium will not age. For most people, fast and easy access is the most interesting feature of the new age; computer-aided search for specific documents or Web pages becomes the basic tool for information-oriented work. But this tool has problems. The current keyword based search machines available on the Internet are not really appropriate for such a task; either there are (way) too many documents matching the specified keywords are presented or none at all. The problem lies in the fact that it is often very difficult to choose appropriate terms describing the desired topic in the first place. This contribution discusses the current state-of-the-art techniques in content-based searching (along with common visualization/browsing approaches) and proposes a particular adaptive solution for intuitive Internet document navigation, which not only enables the user to provide full texts instead of manually selected keywords (if available), but also allows him/her to explore the whole database.
Data driven automatic model selection and parameter adaptation – a case study for septic shock
(2004)
In bioinformatics, biochemical pathways can be modeled by many differential equations. It is still an open problem how to fit the huge amount of parameters of the equations to the available data. Here, the approach of systematically learning the parameters is necessary. This paper propose as model selection criterion the least complex description of the observed data by the model, the minimum description length. For the small, but important example of inflammation modeling the performance of the approach is evaluated.
In bioinformatics, biochemical signal pathways can be modeled by many differential equations. It is still an open problem how to fit the huge amount of parameters of the equations to the available data. Here, the approach of systematically obtaining the most appropriate model and learning its parameters is extremely interesting. One of the most often used approaches for model selection is to choose the least complex model which “fits the needs”. For noisy measurements, the model which has the smallest mean squared error of the observed data results in a model which fits too accurately to the data – it is overfitting. Such a model will perform good on the training data, but worse on unknown data. This paper propose as model selection criterion the least complex description of the observed data by the model, the minimum description length. For the small, but important example of inflammation modeling the performance of the approach is evaluated. Keywords: biochemical pathways, differential equations, septic shock, parameter estimation, overfitting, minimum description length.
In bioinformatics, biochemical pathways can be modeled by many differential equations. It is still an open problem how to fit the huge amount of parameters of the equations to the available data. Here, the approach of systematically learning the parameters is necessary. In this paper, for the small, important example of inflammation modeling a network is constructed and different learning algorithms are proposed. It turned out that due to the nonlinear dynamics evolutionary approaches are necessary to fit the parameters for sparse, given data. Proceedings of the 15th IEEE International Conference on Tools with Artificial Intelligence - ICTAI 2003
The early prediction of mortality is one of the unresolved tasks in intensive care medicine. This contribution models medical symptoms as observations cased by transitions between hidden markov states. Learning the underlying state transition probabilities results in a prediction probability success of about 91%. The results are discussed and put in relation to the model used. Finally, the rationales for using the model are reflected: Are there states in the septic shock data?
In intensive care units physicians are aware of a high lethality rate of septic shock patients. In this contribution we present typical problems and results of a retrospective, data driven analysis based on two neural network methods applied on the data of two clinical studies. Our approach includes necessary steps of data mining, i.e. building up a data base, cleaning and preprocessing the data and finally choosing an adequate analysis for the medical patient data. We chose two architectures based on supervised neural networks. The patient data is classified into two classes (survived and deceased) by a diagnosis based either on the black-box approach of a growing RBF network and otherwise on a second network which can be used to explain its diagnosis by human-understandable diagnostic rules. The advantages and drawbacks of these classification methods for an early warning system are discussed.
In bioinformatics, biochemical pathways can be modeled by many differential equations. It is still an open problem how to fit the huge amount of parameters of the equations to the available data. Here, the approach of systematically learning the parameters is necessary. In this paper, for the small, important example of inflammation modeling a network is constructed and different learning algorithms are proposed. It turned out that due to the nonlinear dynamics evolutionary approaches are necessary to fit the parameters for sparse, given data. Keywords: model parameter adaption, septic shock. coupled differential equations, genetic algorithm.
The selection of features for classification, clustering and approximation is an important task in pattern recognition, data mining and soft computing. For real-valued features, this contribution shows how feature selection for a high number of features can be implemented using mutual in-formation. Especially, the common problem for mutual information computation of computing joint probabilities for many dimensions using only a few samples is treated by using the Rènyi mutual information of order two as computational base. For this, the Grassberger-Takens corre-lation integral is used which was developed for estimating probability densities in chaos theory. Additionally, an adaptive procedure for computing the hypercube size is introduced and for real world applications, the treatment of missing values is included. The computation procedure is accelerated by exploiting the ranking of the set of real feature values especially for the example of time series. As example, a small blackbox-glassbox example shows how the relevant features and their time lags are determined in the time series even if the input feature time series determine nonlinearly the output. A more realistic example from chemical industry shows that this enables a better ap-proximation of the input-output mapping than the best neural network approach developed for an international contest. By the computationally efficient implementation, mutual information becomes an attractive tool for feature selection even for a high number of real-valued features.
In its first part, this contribution reviews shortly the application of neural network methods to medical problems and characterizes its advantages and problems in the context of the medical background. Successful application examples show that human diagnostic capabilities are significantly worse than the neural diagnostic systems. Then, paradigm of neural networks is shortly introduced and the main problems of medical data base and the basic approaches for training and testing a network by medical data are described. Additionally, the problem of interfacing the network and its result is given and the neuro-fuzzy approach is presented. Finally, as case study of neural rule based diagnosis septic shock diagnosis is described, on one hand by a growing neural network and on the other hand by a rule based system. Keywords: Statistical Classification, Adaptive Prediction, Neural Networks, Neurofuzzy, Medical Systems
In contrast to the symbolic approach, neural networks seldom are designed to explain what they have learned. This is a major obstacle for its use in everyday life. With the appearance of neuro-fuzzy systems which use vague, human-like categories the situation has changed. Based on the well-known mechanisms of learning for RBF networks, a special neuro-fuzzy interface is proposed in this paper. It is especially useful in medical applications, using the notation and habits of physicians and other medically trained people. As an example, a liver disease diagnosis system is presented.
The prevention of credit card fraud is an important application for prediction techniques. One major obstacle for using neural network training techniques is the high necessary diagnostic quality: Since only one financial transaction of a thousand is invalid no prediction success less than 99.9% is acceptable. Due to these credit card transaction proportions complete new concepts had to be developed and tested on real credit card data. This paper shows how advanced data mining techniques and neural network algorithm can be combined successfully to obtain a high fraud coverage combined with a low false alarm rate.
This paper describes the use of a Radial Basis Function (RBF) neural network in the approximation of process parameters for the extrusion of a rubber profile in tyre production. After introducing the rubber industry problem, the RBF network model and the RBF net learning algorithm are developed, which uses a growing number of RBF units to compensate the approximation error up to the desired error limit. Its performance is shown for simple analytic examples. Then the paper describes the modelling of the industrial problem. Simulations show good results, even when using only a few training samples. The paper is concluded by a discussion of possible systematic error influences, improvements and potential generalisation benefits. Keywords: Adaptive process control; Parameter estimation; RBF-nets; Rubber extrusion
Diese Arbeit plädiert für eine rationale Behandlung von Patientendaten und untersucht dazu die Analyse der Daten mit Hilfe neuronale Netze etwas näher. Erfolgreiche Beispielanwendungen zeigen, daß die menschlichen Diagnosefähigkeiten deutlich schlechter sind als neuronale Diagnosesysteme. Für das Beispiel der neueren Architektur mit RBF-Netzen wird die Funktionalität näher erläutert und gezeigt, wie menschliche und neuronale Expertise miteinander gekoppelt werden kann. Der Ausblick deutet Anwendungen und Praxisproblematik derartiger Systeme an.
The encoding of images by semantic entities is still an unresolved task. This paper proposes the encoding of images by only a few important components or image primitives. Classically, this can be done by the Principal Component Analysis (PCA). Recently, the Independent Component Analysis (ICA) has found strong interest in the signal processing and neural network community. Using this as pattern primitives we aim for source patterns with the highest occurrence probability or highest information. For the example of a synthetic image composed by characters this idea selects the salient ones. For natural images it does not lead to an acceptable reproduction error since no a-priori probabilities can be computed. Combining the traditional principal component criteria of PCA with the independence property of ICA we obtain a better encoding. It turns out that the Independent Principal Components (IPC) in contrast to the Principal Independent Components (PIC) implement the classical demand of Shannon’s rate distortion theory.
This paper proposes a new approach for the encoding of images by only a few important components. Classically, this is done by the Principal Component Analysis (PCA). Recently, the Independent Component Analysis (ICA) has found strong interest in the neural network community. Applied to images, we aim for the most important source patterns with the highest occurrence probability or highest information called principal independent components (PIC). For the example of a synthetic image composed by characters this idea selects the salient ones. For natural images it does not lead to an acceptable reproduction error since no a-priori probabilities can be computed. Combining the traditional principal component criteria of PCA with the independence property of ICA we obtain a better encoding. It turns out that this definition of PIC implements the classical demand of Shannon’s rate distortion theory.
This paper describes the problems and an adaptive solution for process control in rubber industry. We show that the human and economical benefits of an adaptive solution for the approximation of process parameters are very attractive. The modeling of the industrial problem is done by the means of artificial neural networks. For the example of the extrusion of a rubber profile in tire production our method shows good results even using only a few training samples.
In this paper we regard first the situation where parallel channels are disturbed by noise. With the goal of maximal information conservation we deduce the conditions for a transform which "immunizes" the channels against noise influence before the signals are used in later operations. It shows up that the signals have to be decorrelated and normalized by the filter which corresponds for the case of one channel to the classical result of Shannon. Additional simulations for image encoding and decoding show that this constitutes an efficient approach for noise suppression. Furthermore, by a corresponding objective function we deduce the stochastic and deterministic learning rules for a neural network that implements the data orthonormalization. In comparison with other already existing normalization networks our network shows approximately the same in the stochastic case but, by its generic deduction ensures the convergence and enables the use as independent building block in other contexts, e.g. whitening for independent component analysis. Keywords: information conservation, whitening filter, data orthonormalization network, image encoding, noise suppression.
Im Zeitraum 1. 11. 1993 bis 30. 3. 1997 wurden 1149 allgemeinchirurgische Intensivpatienten prospektiv erfaßt, von denen 114 die Kriterien des septischen Schocks erfüllten. Die Letalität der Patienten mit einem septischen Schock betrug 47,3%. Nach Training eines neuronalen Netzes mit 91 (von insgesamt n = 114) Patienten ergab die Testung bei den verbleibenden 23 Patienten bei der Berücksichtigung von Parameterveränderungen vom 1. auf den 2. Tag des septischen Schocks folgendes Ergebnis: Alle 10 verstorbenen Patienten wurden korrekt als nicht überlebend vorhergesagt, von den 13 Überlebenden wurden 12 korrekt als überlebend vorhergesagt (Sensitivität 100%; Spezifität 92,3%).
This paper describes the use of a radial basis function (RBF) neural network. It approximates the process parameters for the extrusion of a rubber profile used in tyre production. After introducing the problem, we describe the RBF net algorithm and the modeling of the industrial problem. The algorithm shows good results even using only a few training samples. It turns out that the „curse of dimensions“ plays an important role in the model. The paper concludes by a discussion of possible systematic error influences and improvements.
The paper focuses on the division of the sensor field into subsets of sensor events and proposes the linear transformation with the smallest achievable error for reproduction: the transform coding approach using the principal component analysis (PCA). For the implementation of the PCA, this paper introduces a new symmetrical, lateral inhibited neural network model, proposes an objective function for it and deduces the corresponding learning rules. The necessary conditions for the learning rate and the inhibition parameter for balancing the crosscorrelations vs. the autocorrelations are computed. The simulation reveals that an increasing inhibition can speed up the convergence process in the beginning slightly. In the remaining paper, the application of the network in picture encoding is discussed. Here, the use of non-completely connected networks for the self-organized formation of templates in cellular neural networks is shown. It turns out that the self-organizing Kohonen map is just the non-linear, first order approximation of a general self-organizing scheme. Hereby, the classical transform picture coding is changed to a parallel, local model of linear transformation by locally changing sets of self-organized eigenvector projections with overlapping input receptive fields. This approach favors an effective, cheap implementation of sensor encoding directly on the sensor chip. Keywords: Transform coding, Principal component analysis, Lateral inhibited network, Cellular neural network, Kohonen map, Self-organized eigenvector jets.
After a short introduction into traditional image transform coding, multirate systems and multiscale signal coding the paper focuses on the subject of image encoding by a neural network. Taking also noise into account a network model is proposed which not only learns the optimal localized basis functions for the transform but also learns to implement a whitening filter by multi-resolution encoding. A simulation showing the multi-resolution capabilitys concludes the contribution.
We present a framework for the self-organized formation of high level learning by a statistical preprocessing of features. The paper focuses first on the formation of the features in the context of layers of feature processing units as a kind of resource-restricted associative multiresolution learning We clame that such an architecture must reach maturity by basic statistical proportions, optimizing the information processing capabilities of each layer. The final symbolic output is learned by pure association of features of different levels and kind of sensorial input. Finally, we also show that common error-correction learning for motor skills can be accomplished also by non-specific associative learning. Keywords: feedforward network layers, maximal information gain, restricted Hebbian learning, cellular neural nets, evolutionary associative learning
One of the most interesting domains of feedforward networks is the processing of sensor signals. There do exist some networks which extract most of the information by implementing the maximum entropy principle for Gaussian sources. This is done by transforming input patterns to the base of eigenvectors of the input autocorrelation matrix with the biggest eigenvalues. The basic building block of these networks is the linear neuron, learning with the Oja learning rule. Nevertheless, some researchers in pattern recognition theory claim that for pattern recognition and classification clustering transformations are needed which reduce the intra-class entropy. This leads to stable, reliable features and is implemented for Gaussian sources by a linear transformation using the eigenvectors with the smallest eigenvalues. In another paper (Brause 1992) it is shown that the basic building block for such a transformation can be implemented by a linear neuron using an Anti-Hebb rule and restricted weights. This paper shows the analog VLSI design for such a building block, using standard modules of multiplication and addition. The most tedious problem in this VLSI-application is the design of an analog vector normalization circuitry. It can be shown that the standard approaches of weight summation will not give the convergence to the eigenvectors for a proper feature transformation. To avoid this problem, our design differs significantly from the standard approaches by computing the real Euclidean norm. Keywords: minimum entropy, principal component analysis, VLSI, neural networks, surface approximation, cluster transformation, weight normalization circuit.
It is well known that artificial neural nets can be used as approximators of any continuous functions to any desired degree and therefore be used e.g. in high - speed, real-time process control. Nevertheless, for a given application and a given network architecture the non-trivial task remains to determine the necessary number of neurons and the necessary accuracy (number of bits) per weight for a satisfactory operation which are critical issues in VLSI and computer implementations of nontrivial tasks. In this paper the accuracy of the weights and the number of neurons are seen as general system parameters which determine the maximal approximation error by the absolute amount and the relative distribution of information contained in the network. We define as the error-bounded network descriptional complexity the minimal number of bits for a class of approximation networks which show a certain approximation error and achieve the conditions for this goal by the new principle of optimal information distribution. For two examples, a simple linear approximation of a non-linear, quadratic function and a non-linear approximation of the inverse kinematic transformation used in robot manipulator control, the principle of optimal information distribution gives the the optimal number of neurons and the resolutions of the variables, i.e. the minimal amount of storage for the neural net. Keywords: Kolmogorov complexity, e-Entropy, rate-distortion theory, approximation networks, information distribution, weight resolutions, Kohonen mapping, robot control.
It is well known that artificial neural nets can be used as approximators of any continous functions to any desired degree. Nevertheless, for a given application and a given network architecture the non-trivial task rests to determine the necessary number of neurons and the necessary accuracy (number of bits) per weight for a satisfactory operation. In this paper the problem is treated by an information theoretic approach. The values for the weights and thresholds in the approximator network are determined analytically. Furthermore, the accuracy of the weights and the number of neurons are seen as general system parameters which determine the the maximal output information (i.e. the approximation error) by the absolute amount and the relative distribution of information contained in the network. A new principle of optimal information distribution is proposed and the conditions for the optimal system parameters are derived. For the simple, instructive example of a linear approximation of a non-linear, quadratic function, the principle of optimal information distribution gives the the optimal system parameters, i.e. the number of neurons and the different resolutions of the variables.
Clathrates are candidate materials for thermoelectric applications because of a number of unique properties. The clathrate I phases in the Ba-Ni-Ge ternary system allow controlled variation of the charge carrier concentration by adjusting the Ni content. Depending on the Ni content, the physical properties vary from metal-like to insulator-like and show a transition from p-type to n-type conduction. Here we present first results on the characterization of millimeter-sized single crystals grown by the Bridgman technique. Single crystals with a composition of Ba8Ni3.5Ge42.1h0.4 show metallic behavior (dp/dT > 0) albeit with high resistivity at room temperature [p (300 K) = 1 mOhm cm]. The charge carrier concentration at 300 K, as determined from Hall-effect measurements, is 2.3 e-/unit cell. The dimensionless thermoelectric figure of merit estimated at 680 K is ZT ~ 0.2. Keywords Clathrates - thermoelectric material - intermetallic compound - nickel
We suggest a new method to compute the spectrum and wave functions of excited states. We construct a stochastic basis of Bargmann link states, drawn from a physical probability density distribution and compute transition amplitudes between stochastic basis states. From such transition matrix we extract wave functions and the energy spectrum. We apply this method toU(1)2+1 lattice gauge theory. As a test we compute the energy spectrum, wave functions and thermodynamical functions of the electric Hamiltonian and compare it with analytical results. We find excellent agreement. We observe scaling of energies and wave functions in the variable of time. We also present first results on a small lattice for the full Hamiltonian including the magnetic term.
Central elements of the Bologna declaration have been implemented in a huge variety of curricula in humanities, social sciences, natural sciences and engineering sciences at German universities. Overall the results have been nothing less than disastrous. Surprisingly, this seems to be the perfect time for German universities to talk about introducing a curriculum that is fully compatible with the Bologna declaration for medical education as well. However, German medical education does not have problems the Bologna declaration is intended to solve, such as quality, mobility, internationalization and employability. It is already in the Post-Bologna age.
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Ein wesentliches Ziel der modernen Perforatorlappen vom Unterbauch (DIEP-flap) für die Brustrekonstruktion nach Mammaamputation ist die Schonung der Rektusmuskulatur. Der Funktionserhalt der Muskulatur ist abhängig von der Präparationstechnik. In unserer Studie wird die Interaktion zwischen der Muskel- und Nervendurchtrennung und der postoperativen Muskelfunktion untersucht. Material und Methoden: Unser Patientenkollektiv umfasst 42 Patienten. Im Zeitraum von 6/04 bis 06/07 wurden 44 DIEP-Lappen an unserer Klink nach dem gleichen operativen Standard von unterschiedlichen Operateuren zur Brustrekonstruktion transferiert. Die Standards beinhalten die beidseitige Präparation der Perforatorgefäße des Unterbauches, der SIEA-Gefäße, die Auswahl der 2–4 kräftigsten Perforatoren einer Seite und die schonende Präparation der Rektusmuskulatur und der motorischen Nervenäste.In einer prospektiven monozentrischen Studie haben wir die Rektusmuskulatur präoperativ und 6 Monate postoperativ untersucht. Für die Funktionsanalyse wurde sowohl die Myosonografie der Rektusmuskulatur als auch eine klinischen Untersuchung angewandt. Intraoperativ wurde die Anzahl und Lokalisation der Perforatoren, die Länge der gespreizten Muskulatur, die Länge der durchtrennten Muskulatur und die Anzahl und Lokalisation der durchtrennten intramuskulären Nerven in einer Skizze eingetragen. Die Relation zwischen der intraoperativen Muskel- und Nervenschädigung und der postoperativen Funktion wurde analysiert. Ergebnisse: Bei der Hebung des DIEP – flaps wurden im Durchschnitt 10,8 cm Muskulatur gespreizt, 8,2 cm Muskulatur getunnelt und 2,5 cm Muskulatur durchtrennt. In 41% (18 Pat) wurde 1 motorischer Nervenast durchtrennt, in 27,3% (12 Pat) waren es 2 und in 13,6% (6 Pat) 3 Nervenäste. Bei der klinischen Untersuchung 6 Monate postoperativ hatten 8 Patientinnen noch funktionelle Störungen beim Heben schwerer Gegenstände. Myosonografisch fand sich bei 3 Patientinnen eine Funktionsminderung: 1 vollständiger Funktionsverlust der Muskulatur mit Relaxatio, 2 relevante Minderungen der Kontraktilität Bei keiner Patientin fand sich eine Bauchwandhernie. Bei allen Patientinnen mit einer Beeinträchtigung der Muskulatur waren mind. 2 motorische Nervenäste durchtrennt worden. Schlussfolgerung: Die klinische und myosonografische Funktionsanalyse der Bauchwand ermöglicht die Erstellung von Standards zur verbesserten Operationstechnik. Unsere Ergebnisse zeigen, dass die Durchtrennung von 2 oder mehr motorischen Nervenästen vermieden werden muß. Die Länge der durchtrennten und gespreizten Muskulatur ist dagegen von geringerer Bedeutung.
Einleitung: Die pathologische Stimulierbarkeit von Serum-Calcitonin (CT) im relativ niedrigen Bereich (über 100 bis 300 pg/ml) trennt nicht hinreichend zwischen C-Zell-Hyperplasie (CCH) und C-Zell-(Mikro-)Karzinom (CCC), bei Überwiegen der Fälle mit CCH. Der Schilddrüsenisthmus ist frei von C-Zellen (Lit. mult., eigene Studie). Dies führte zur Methode der ITBL , welche nun an einer größeren prospektiv dokumentierten Serie von Patienten evaluiert wird.
Material und Methoden: 102 Patienten mit präoperativ gering bis mäßig erhöhtem CT (stim.≥100 ≤400 pg/ml) wurden mit der Intention zur ITBL operiert. Bei 30 erfolgte die Komplettierung zur totalen Thyreoidektomie (TTX), davon 27 in gleicher Sitzung, im Fall von Malignität unter Einschluss der systematischen Lymphknotendissektion (LNX). Gründe zur Komplettierung waren Mikrokarzinome (12 medulläre, 7 differenzierte) oder benigne Isthmusknoten (n=11).
Ergebnisse: Bei allen 72 Patienten mit definitiver ITBL (darunter 2 Mikro-CCC, übrige CCH) lag, ebenso wie bei den 30 Patienten mit TTX, das postoperative CT unter der Messgrenze (unter 2 pg/ml), mit einer Ausnahme (3 pg/ml, nicht stimulierbar); maximal stim. CT war bei 5 der 72 Patienten im unteren Normbereich messbar (3 – 4,6 pg/ml), bei den übrigen ebenfalls unter der Messgrenze. Alle 102 Patienten waren "biochemisch geheilt".
Schlussfolgerung: Die ITBL hat sich mit hinreichender Sicherheit als optimale Operationsmethode für Fälle mit CCH erwiesen und ist bzgl. ihrer Radikalität der TTX gleichwertig, unter Belassung eines gesunden Schilddrüsenrestes (Isthmus) von funktioneller Relevanz (2 – 5 g).
Die Virtuelle Fachbibliothek Biologie (www.vifabio.de) bündelt die Recherche nach wissenschaftlich hochwertigen Quellen aus Bibliotheken, Aufsatzbanken und Internet. Zentrales Element von vifabio ist dabei der Virtuelle Katalog: Mit einer Suchanfrage werden mehrere Kataloge zoologisch bzw. ornithologisch relevanter Bibliotheken, Zeitschriftendatenbanken wie Zoological Record (Nationallizenz 1864 bis 2007 für Nutzer in akademischen Einrichtungen), BioLIS und der Aufsatzkatalog OLC, sowie Landesbibliographien und der Internetquellen-Führer von vifabio durchsucht. Verlinkungen zur Elektronischen Zeitschriftenbibliothek Regensburg (EZB), zum Lieferdienst subito sowie zum Karlsruher Virtuellen Katalog (KVK) erleichtern den Zugang zum Volltext oder zum gedruckten Exemplar. Weitere Module von vifabio wie der Internetquellen-Führer bzw. der Datenbank-Führer eröffnen zusätzliche Rechercheoptionen.
Towards correctness of program transformations through unification and critical pair computation
(2010)
Correctness of program transformations in extended lambda-calculi with a contextual semantics is usually based on reasoning about the operational semantics which is a rewrite semantics. A successful approach is the combination of a context lemma with the computation of overlaps between program transformations and the reduction rules, which results in so-called complete sets of diagrams. The method is similar to the computation of critical pairs for the completion of term rewriting systems. We explore cases where the computation of these overlaps can be done in a first order way by variants of critical pair computation that use unification algorithms. As a case study of an application we describe a finitary and decidable unification algorithm for the combination of the equational theory of left-commutativity modelling multi-sets, context variables and many-sorted unification. Sets of equations are restricted to be almost linear, i.e. every variable and context variable occurs at most once, where we allow one exception: variables of a sort without ground terms may occur several times. Every context variable must have an argument-sort in the free part of the signature. We also extend the unification algorithm by the treatment of binding-chains in let- and letrec-environments and by context-classes. This results in a unification algorithm that can be applied to all overlaps of normal-order reductions and transformations in an extended lambda calculus with letrec that we use as a case study.
Die Allmacht der göttlichen Gnade in der Gaudiya-Vaisnava-Theologie Srila Bhaktivinoda Thakuras
(2010)
Yajnavalkya : seine Philosophie – seine Soteriologie ; Klaus Mylius zum 80. Geburtstag gewidmet
(2010)
Measuring confidence and uncertainty during the financial crisis : evidence from the CFS survey
(2010)
The CFS survey covers individual situations of banks and other companies of the financial sector during the financial crisis. This provides a rare possibility to analyze appraisals, expectations and forecast errors of the core sector of the recent turmoil. Following standard ways of aggregating individual survey data, we first present and introduce the CFS survey by comparing CFS indicators of confidence and predicted confidence to ifo and ZEW indicators. The major contribution is the analysis of several indicators of uncertainty. In addition to well established concepts, we introduce innovative measures based on the skewness of forecast errors and on the share of ‘no response’ replies. Results show that uncertainty indicators fit quite well with pattern of real and financial time series of the time period 2007 to 2010. Business Sentiment , Financial Crisis , Survey Indicator , Uncertainty
This paper provides theory as well as empirical results for pre-averaging estimators of the daily quadratic variation of asset prices. We derive jump robust inference for pre-averaging estimators, corresponding feasible central limit theorems and an explicit test on serial dependence in microstructure noise. Using transaction data of different stocks traded at the NYSE, we analyze the estimators’ sensitivity to the choice of the pre-averaging bandwidth and suggest an optimal interval length. Moreover, we investigate the dependence of pre-averaging based inference on the sampling scheme, the sampling frequency, microstructure noise properties as well as the occurrence of jumps. As a result of a detailed empirical study we provide guidance for optimal implementation of pre-averaging estimators and discuss potential pitfalls in practice. Quadratic Variation , MarketMicrostructure Noise , Pre-averaging , Sampling Schemes , Jumps
Nahrungsmittelallergikern steht aufgrund inakzeptabler Nebenwirkungen bei der spezifischen Immuntherapie zurzeit noch keine kausale Therapie dieser Erkrankung zur Verfügung. Demzufolge bleibt die Vermeidung der entsprechenden Lebensmittel für Nahrungsmittelallergiker der einzige Weg möglicherweise lebensbedrohlichen allergischen Reaktionen zu entgehen. Ziel dieser Arbeit war es, das Potential eines viralen Vektors für die Verwendung bei der spezifischen Immuntherapie der Lebensmittelallergie zu untersuchen. Die Überlegung dahinter war, das Risiko eines anaphylaktischen Schocks, der bei Injektion eines Allergens immer gegeben ist, durch intrazelluläre Expression des Proteins über das rekombinante Virus zu verringern. Zusätzlich dazu bringt das modifizierte Vacciniavirus Ankara (MVA) ideale Voraussetzungen für eine Allergievakzine mit: Die Infektion mit MVA führt zu einer stark Th1-gerichteten Immunantwort gegen die viral exprimierte Proteine, die möglicherweise die allergische Th2-gerichtete Immunantwort modulieren kann. Die prophylaktische Immunisierung mit MVA-OVA im Mausmodell der systemischen Sensibilisierung gegen Ovalbumin (OVA) führte dosisabhängig zur Suppression der spezifischen IgE-Antwort und somit zum Schutz vor allergischer Sensibilisierung. Zusätzlich konnte nachgewiesen werden, dass die Vakzinierung mit MVA-OVA eine dauerhafte spezifische IgG-Antwort induziert. Diese Daten unterstützen das Konzept einer Modulation der Sensibilisierung durch MVA-Vakzine. Weiterhin wurden zwei rekombinante Vakzinen generiert, mittels derer entweder das Tropomyosin aus Garnelen (Pen a 1) oder das Lipid-Transfer-Protein aus Haselnuss (Cor a 8) intrazellulär exprimiert werden konnte. Dass die Sensibilisierung gegen diese Allergene häufig mit schweren allergischen Reaktionen korreliert, unterstreicht die Notwendigkeit einer verbesserten Immuntherapie in diesem Bereich. Während MVA-Pen a 1 in ausreichender Menge und Qualität für die Verwendung im Mausmodell hergestellt werden konnte, gelang es nicht, eine homogene Population von MVA-Cor a 8 zu gewinnen, in der das Selektionsgen K1L nicht mehr vorhanden war. Parallel zur Virusherstellung wurden Mausmodelle der Sensibilisierung gegen Cor a 8 und Pen a 1 entwickelt. Vergleiche unterschiedlicher Mausstämme ergaben, dass sich Mäuse des Stammes CBA/J am empfänglichsten für eine systemische Sensibilisierung mit Cor a 8 sind. Aufgrund von Erfahrungen zur Sensibilisierung gegen Pen a 1 wurden Mäuse des Stammes C3H/HeJ bei der Etablierung eines Garnelenallergiemodells verwendet. Es zeigte sich, dass durch die intragastrale Applikation von 0,1 mg Pen a 1 sowie Choleratoxin als Adjuvanz (drei Gaben in dreiwöchigem Abstand), gefolgt von einer systemischen Gabe des Allergens mit Aluminiumhydroxid eine spezifische Sensibilisierung hervorgerufen werden konnte, die nach Exposition mit Pen a 1 zu allergischen Symptomen führte. Auch in diesem Modell bot die prophylaktische Immunisierung mit MVA-Pen a 1 Schutz vor Pen a 1spezifischer Sensibilisierung. Um die therapeutische Effektivität der Vakzine ermitteln zu können, muss die begonnene Etablierung eines Allergiemodells mit symptomauslösenden Provokationen und immunologischen Analysen weitergeführt werden. Der in dieser Studie beobachtete starke schützende Effekt einer Vakzinierung mit MVA vor allergischer Sensibilisierung und das sehr gute Sicherheitsprofil dieses Vektors in klinischen Studien zu anderen Erkrankungen belegt die Möglichkeit einer Verwendung von MVA zur erfolgreichen spezifischen Immuntherapie der Lebensmittelallergie.
Einleitung: Der Schlauchmagen (Sleeve Gastrectomy) wurde zunächst als erster Teil der biliopankreatischen Diversion mit Duodealswitch eingeführt, um das operative Risiko durch eine Zweischritt-Therapie zu senken. Zunehmend wird das Verfahren nun auch als eigeneständige Operation zur Gewichtsreduktion eingesetzt, obwohl noch keine Langzeitergebnisse vorliegen.
Material und Methoden: Im Zeitraum von 03/2001 bis 03/2007 wurden 120 Patienten (mittleres Alter: 40,3 Jahre; Geschlecht : 86 Frauen, 34 Männer ; Mittelwerte für Gewicht (179,8 kg), Körperlänge (1,72 m), BMI (60,7 kg/m2)Übergewicht (117,1 kg)mit einem laparoskopischen Schlauchmagenbildung behandelt. Die Ausgangssituation war zwischen den Gruppen nicht verschieden (Pearson). Bei 106 der Patienten war ein BPD-DS geplant, der in zwei Schritten erfolgen sollte. 6 Patienten hatten bereits vorher ein Magenband. In der Gruppe A (n=25) erfolgte keine Kalibration des Schlauches mit Hilfe einer Sonde. In Gruppe B (n=32) wurde eine 44 French und in Gruppe C (n=63) eine 33 French im Durchmesser starke Sonde zur Kalibration eingesetzt.
Ergebnisse: Intraoperativ wurden durch Volumenmessung über die Sonde die Schlauchvolumina mit einer hohen Varianz gemessen (A: 149,0 ml, SD: 15,2; B:117,4 ml, SD:34,8; C: 78,3 ml,SD: 17,9). Die Unterschiede waren statistisch signifikant (p<0,01; eta2=0,61). Besonders deutlich waren die Unterschiede im resezierten Magenvolumen (A:490,2 ml; B 732,7 ml; C:1156,1 ml). Da statistisch keine Abhängigkeit zwischen BMI und Magenvolumen nachgewiesen w erden konnte, zeigt sich die Ungenauigkeit der Schlauchmagenmessung gegenüber der Messung des resezierten Magenvolumens. Ergebnisse der Gewichtsreduktion zeigen eine Abhängigkeit von der Kalibration des Magenschlauches und des resezierten Magen-Volumens. Der Gewichtsverlust beträgt im Gesamtpatientengut und zeigt ab dem 3. Postoperativen Jahr eine Tendenz zum Wiederanstieg des Gewichtes. Eine unterlassene Kalibration und ein Volumen von weniger als 500 cm3 für den entfernten Magen sind mit einem Gewichtsanstieg spätestens nach 2- 3 Jahre verbunden. Der Verlust von 20 BMI-Punkten wird nach 2 Jahren erreicht.
Schlussfolgerung: Die Schlauchmagenbildung ist ein restriktives Verfahren, dass bei einer Kalibration eines engen Magenschlauches (32 French) und einem resezierten Magenvolumen von mindestens 500 eine sehr gute Gewichtsreduktion erzielt, die sich bei dem EWL zwischen de Ergebnissen des Magenbandes und des Magenbypass bewegt. Durch Anpassung der Ernährungsgewohnheiten kann es wie bei allen pur restriktiven Verfahren zu einem Wiederanstieg des Körpergewichtes.
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Über 4 Millionen Menschen leben in Deutschland schätzungsweise mit chronischen Wunden. Aufgrund der demographischen Entwicklung unserer Gesellschaft ist mit einem weiteren Anstieg der zu nicht, oder nur zögerlich heilenden Wunden führenden Erkrankungen diabetisches Fußsyndrom, chronisch venöse Insuffizienz und pAVK auszugehen. Dennoch ist die moderne hydroaktive Wundbehandlung in Deutschland nicht flächendeckend etabliert. Gründe hierfür liegen unter anderem in dem unüberschaubaren Produktsortiment, der unzureichenden Vergütung vor allem im ambulanten Versorgungssektor und in der mangelhaften ärztlichen Ausbildung in Bezug auf Wundtherapie. Ein standardisiertes Wundbehandlungsschema erleichtert die stadiengerechte Anwendung moderner Wundauflagen und dient als nachvollziehbare Entscheidungsgrundlage in der Auswahl der erforderlichen Wundprodukte. Material und Methoden: Anhand eines Bogens werden vier Kriterien (Wundstadium, Wundexsudation, Wundtiefe und Wundinfektion) zur Beurteilung einer Wunde erfasst. Die fotographische Abbildung der verschiedenen Wundstadien erlaubt eine sichere visuelle Zuordnung durch den Therapeuten. Nach Analyse dieser S.E.T.I. Kriterien ergibt sich eine eindeutige stadiengerechte Produktzuordnung, die auch dem weniger geübten eine sichere Anwendung der verschiedenen Produktgruppen ermöglicht. Ergebnisse: Dieser Behandlungsstandard wurde zwischenzeitlich an 3 Kliniken der Maximalversorgung und in einem integrierten Versorgungsmodell zum diabetischen Fußsyndrom etabliert und stellt einen Bestandteil für ein weiteres IV Modell zur pAVK dar. Neben ökonomischen Vorteilen (reduzierte Lagerhaltungskosten, Straffung des Produktsortiments, günstigere Bezugskonditionen) lässt sich eine Verbesserung in der Behandlungsqualität, eine verkürzte stationäre Behandlungsdauer sowie eine vereinfachte Umsetzung einer sektorenübergreifenden Wundversorgung erzielen. Schlussfolgerung: Die Anwendung eines Therapiestandards für die stadiengerechte Behandlung chronischer Wunden ermöglicht eine Anwenderunabhängige gleich bleibend hohe Qualität sowie eine wesentlich vereinfachte Orientierung in dem Produktsortiment. Hierdurch wird weiterhin ein Beitrag zur Schnittstellenoptimierung zwischen dem stationären und ambulanten Versorgungssektor bei chronischen Wunden geleistet. Ein verbindlicher interdisziplinärer und interprofessioneller Wundbehandlungsstandard stellt eine unverzichtbare Qualitätssicherungsmaßnahme in der Wundbehandlung dar.
Einleitung: Am 16.12.06 wurde im Eurotransplant-Gebiet der MELD-Score (MELD) als Allokationsbasis zur Lebertransplantation (OLT) eingeführt. Ziel ist eine Reduktion der Sterblichkeit auf der Warteliste. Material und Methoden: 100 Patienten wurden in die prospektive Analyse der MELD-Allokation vom 16.12.06 bis 15.09.07 einbezogen. Ergebnisse: Aktuell warten 68 Pat., 28 Pat. wurden transplantiert, 4 Pat. sind auf der Warteliste (WL) verstorben (4%). Der mittlere MELD auf der WL beträgt 17,2 +/- 5,2 (7-28). Bei 12 Pat. liegt eine Standard-exception (SE) (n=10 HCC, n=2 metabolische Erkrankung) mit einem Match-MELD von 25,6 +/-2,06 vor (24-28). Die Todesursachen der vier auf der WL verstorbenen Pat. waren eine akute Varizenblutung (MELD 9), zwei kardiale Versagen (MELD 13, 18) und eine MRSA-Sepsis (MELD 29, NT-Status). Die 28 transplantierten Pat. hatte zum Zeitpunkt der Transplantation einen mittleren MELD von 27,66 +/- 5,1 Punkten (21 bis 40). 20 Pat. wurden aufgrund des Labor-MELD (28,4 +/- 5,3, 24-40) transplantiert, wobei 7 Pat. einen MELD über 30 aufwiesen. Die Wartezeit lag bei 11,55 +/- 5,3 Tagen. 8 Pat. erhielten bei SE bei HCC (MELD 24 +/- 0, 24) ein Organ nach einer Wartezeit von 320 +/- 9,7 Tagen. Aktuell leben 23 der 28 transplantierten Pat. Bei zwei verstorbenen Pat. war die Todesursache ein kardiales Versagen, bei zwei Patienten eine primäre Non-Funktion sowie ein septisches Multiorganversagen. Schlussfolgerung: Während der ersten Monate der MELD Allokation lag die Letalität auf der WL in unserem Zentrum bei 4%. Patienten mit einem mittleren MELD über 27 erhielten Organangebote und konnten nach kurzer Wartezeit transplantiert werden.
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Konventionelle Ösophagusresektionen gehen auch heute noch mit einer hohe Morbidität und Mortalität einher. Die Ergebnisse einiger Serien minimal-invasiver Ösophagusresektionen sind vielversprechend, aber kontrovers diskutiert. Material und Methoden: Im Rahmen einer Beobachtungsstudie werden seit Mai 2005 minimal-invasive thorakoabdominelle Ösophagektomien mit cervikalem Magenhochzug durchgeführt. Die operativen Parameter und der postoperative Verlauf werden prospektiv erfasst und jetzt retrospektiv ausgewertet. Ergebnisse: Seit Mai 2005 wurden 28 Patienten minimal-invasive ösophagektomiert, 3 transhiatal und 25 thorakoabdominell. Indikation waren Plattenepithelkarzinome bei 14 und distale Adenokarzinome bei 13 Patienten, bei einem Patienten eine langstreckige benigne Stenose. Die Tumorstadien waren UICC-IIa in 7, UICC-2b in 2 und UICC-III in 18 Patienten. 11 Patienten (41%) wurden neoadjuvant vorbehandelt. Die OP-Zeit betrug im Mittel 296 Min. +/- 46 Min., der intraoperative Blutverlust 110 ml +/- 131 ml. Ein abdomineller Operationsabschnitt wurde konvertiert (4%), thorakal war bisher keine Konversion notwendig. R-0 Resektionen wurde in 26/27 Patienten (96%) erzielt, die mittlere Anzahl entfernter Lymphknoten betrug 19. Die 30-Tage –Letalität war 0, die Krankenhausletalität 11%. Die Morbidität betrug 54% und beinhaltet 7 Anastomoseninsuffizienzen, 2 „Ösophago“-tracheale Fisteln, 1 Hiatushernie, 2 Recurrensparesen, 2 Pneumonien und 1 beatmungspflichtiges Delir. Drei Patienten (11%) wurden operativ revidiert (eine Fistel, eine Anastomoseninsuffizienz bei Magenschlauchnekrose, eine Hiatushernie). Schlussfolgerung: Nach Einführung der minimal-invasiven thorakoabdominellen Ösophagektomie werden die exzellenten Ergebnisse anderer minimal-invasiver Serien bisher nicht erreicht, entsprechen aber im Wesentlichen den Ergebnissen der konventionellen Technik. Abzuwarten bleibt, ob die Ergebnisse nach weiterer Abflachung der Lernkurve Verbesserungen aufweisen werden.
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Die Resektion von Lebermetastasen kolorektaler Karzinome stellt die einzige potentiell kurative Behandlungsoption dar. Wirksame Chemotherapeutika wie Oxaliplatin und Irinotecan sind in den Verdacht geraten durch histologische Veränderungen an der Leber das Resektionsausmass oder das Outcome von vorbehandelten Patienten zu gefährden.Die vorliegende Studie untersucht daher den Grad der Steatohepatitis bei Patienten mit kolorektalen Lebermetastasen in Abhängigkeit von der Chemotherapie. Material und Methoden: In einem Kollektiv von 100 konsekutiven Patienten (08/2002 bis 02/2006) (chemonaiv: n=32, 62,4 +/- 13,3 Jahre; neoadjuvante Chemotherapie: n=39, 62 +/- 10,2 Jahre und adjuvante Chemotherapie: n=29, 61,2 +/- 10,8 Jahre) wurde aus den intraoperativ gewonnenen Leberresektaten retrospektiv der NAFLD-Score nach Kleiner et al. (Hepatology 2005) erhoben. Zur morphologischen Beurteilung wurde die Hämatoxilin-Eosin-Färbung verwendet, während der Fibrosegrad anhand der Ladewig-Färbung und der Siderosegrad mittels der Berliner-Blau-Färbung bestimmt wurden.Anschließend erfolgte eine statische Analyse der Häufigkeit und Relevanz der Steatohepatitis in den einzelnen Gruppen im Hinblick auf Verlauf und Outcome der Leberresektion. Hierbei wurden multivariate Regression, Kruskal-Wallis-Test, chi2-Test oder Mann-Whitney-U-Test (p<0,05) verwendet. Ergebnisse: Im vorliegenden Patientengut zeigten 7 Patienten eine ausgeprägte NASH, während bei 69% der Patienten keinerlei Veränderungen im Sinne einer NASH vorlagen. Die subjektive Gesamtbeurteilung der Pathologen und der errechnete NASH-Score eine Übereinstimmung in 92%. (Cohen´s kappa 0,82; 95%-Konfidenzintervall [0,71-0,93]). Hinsichtlich des NASH-Score (p=0,462) oder seiner Komponenten konnten keine Unterschiede in Abhängigkeit vom Zeitpunkt der Chemotherapie (Chemonaiv/ neoadjuvant/ adjuvant) gefunden werden. Eine Analyse in Abhängigkeit der verwendeten Chemotherapeutika zeigte keine Unterschiede für den Gesamt-Score (p=0,897), jedoch signifikante Unterschiede für einzelne Komponenten: Portale Entzündung (p=0,045) und Vorliegen von Microgranulomen (p<0,001). Auch eine multivariate Analyse konnte weder den Einfluss von Substanz noch Zeitpunkt der Chemotherapie auf die Entwicklung einer NASH (p zwischen 0,35 und 0,92) nachweisen.Die Analyse des perioperativen Verlaufs (Transfusionsbedarf, Radikalität, Komplikationen, Liegedauer, postoperative Leberfunktion, Krankenhausmortalität) ergab keine signifikanten Unterschiede für Patienten mit oder ohne NASH. Schlussfolgerung: Das Vorliegen einer Steatohepatitis in unserem Patientengut war eine seltene Diagnose, die nicht in Zusammenhang mit Zeitpunkt der Chemotherapie oder verwendetem Chemotherapeutikum stand. Selbst das Vorliegen einer NASH scheint keinen relevanten Einfluss auf den perioperativen Verlauf oder das Outcome nach Leberresektion zu haben.
Nucleation experiments starting from the reaction of OH radicals with SO2 have been performed in the IfT-LFT flow tube under atmospheric conditions at 293±0.5 K for a relative humidity of 13–61%. The presence of different additives (H2, CO, 1,3,5-trimethylbenzene) for adjusting the OH radical concentration and resulting OH levels in the range (4–300) ×105 molecule cm -3 did not influence the nucleation process itself. The number of detected particles as well as the threshold H2SO4 concentration needed for nucleation was found to be strongly dependent on the counting efficiency of the used counting devices. High-sensitivity particle counters allowed the measurement of freshly nucleated particles with diameters down to about 1.5 nm. A parameterization of the experimental data was developed using power law equations for H2SO4 and H2O vapour. The exponent for H2SO4 from different measurement series was in the range of 1.7–2.1 being in good agreement with those arising from analysis of nucleation events in the atmosphere. For increasing relative humidity, an increase of the particle number was observed. The exponent for H2O vapour was found to be 3.1 representing an upper limit. Addition of 1.2×1011 molecule cm -3 or 1.2×1012 molecule cm -3 of NH3 (range of atmospheric NH3 peak concentrations) revealed that NH3 has a measureable, promoting effect on the nucleation rate under these conditions. The promoting effect was found to be more pronounced for relatively dry conditions, i.e. a rise of the particle number by 1–2 orders of magnitude at RH = 13% and only by a factor of 2–5 at RH = 47% (NH3 addition: 1.2×1012 molecule cm -3). Using the amine tert-butylamine instead of NH3, the enhancing impact of the base for nucleation and particle growth appears to be stronger. Tert-butylamine addition of about 1010 molecule cm -3 at RH = 13% enhances particle formation by about two orders of magnitude, while for NH3 only a small or negligible effect on nucleation in this range of concentration appeared. This suggests that amines can strongly influence atmospheric H2SO4-H2O nucleation and are probably promising candidates for explaining existing discrepancies between theory and observations.
We report the first measurements of 1,1,1,2,3,3,3-heptafluoropropane (HFC-227ea), a substitute for ozone depleting compounds, in remote regions of the atmosphere and present evidence for its rapid growth. Observed mixing ratios ranged from below 0.01 ppt in deep firn air to 0.59 ppt in the northern mid-latitudinal upper troposphere. Firn air samples collected in Greenland were used to reconstruct a history of atmospheric abundance. Year-on-year increases were deduced, with acceleration in the growth rate from 0.026 ppt per year in 2000 to 0.057 ppt per year in 2007. Upper tropospheric air samples provide evidence for a continuing growth until late 2009. Fur- thermore we calculated a stratospheric lifetime of 370 years from measurements of air samples collected on board high altitude aircraft and balloons. Emission estimates were determined from the reconstructed atmospheric trend and suggest that current "bottom-up" estimates of global emissions for 2005 are too high by more than a factor of three.
We report the first measurements of 1,1,1,2,3,3,3-heptafluoropropane (HFC-227ea), a substitute for ozone depleting compounds, in air samples originating from remote regions of the atmosphere and present evidence for its accelerating growth. Observed mixing ratios ranged from below 0.01 ppt in deep firn air to 0.59 ppt in the current northern mid-latitudinal upper troposphere. Firn air samples collected in Greenland were used to reconstruct a history of atmospheric abundance. Year-on-year increases were deduced, with acceleration in the growth rate from 0.029 ppt per year in 2000 to 0.056 ppt per year in 2007. Upper tropospheric air samples provide evidence for a continuing growth until late 2009. Furthermore we calculated a stratospheric lifetime of 370 years from measurements of air samples collected on board high altitude aircraft and balloons. Emission estimates were determined from the reconstructed atmospheric trend and suggest that current "bottom-up" estimates of global emissions for 2005 are too high by a factor of three.
Das Modifizierte Vacciniavirus Ankara (MVA) entstand nach mehr als 500 Passagen des Chorioallantois Vacciniavirus Ankara (CVA) auf Hühnerembryofibroblasten. Mit der Passagierung ging u.a. der Verlust zahlreicher Vacciniavirus Virulenzfaktoren einher, wodurch MVA einen hochattenuierten Phänotyp aufweist. Bei mangelnder Pathogenität für humane Organismen verfügt das MVA jedoch über eine vollständig erhaltene Genexpression inklusive integrierter Fremdgene. Hierdurch bedingt ist MVA ein vielversprechender Kandidat nicht nur als Pockenimpfstoff der dritten Generation, sondern auch als Vektorvakzine gegen zahlreiche Infektionskrankheiten sowie in der Tumor-assoziierten Immunotherapie. Ein wesentliches Charakteristikum der Attenuierung von MVA ist seine fehlende Replikationsfähigkeit in humanen Zellen. Bislang ist es jedoch noch nicht möglich gewesen, die hierfür verantwortlichen genetischen Veränderungen eindeutig zuzuordnen. Vorangegangene Arbeiten wiesen darauf hin, dass sich der beschriebene Effekt zumindest teilweise auf die Zeitspanne zwischen zwei Vorläufern des MVA eingrenzen lässt. So zeigten sich humane HeLa Zellen für das CVA 152 permissiv, während gegenüber dem CVA 386 nur noch eine Semipermissivität bestand. Mit Hilfe einer vergleichenden Sequenzanalyse von CVA 152 und CVA 386 konnten verschiedene Deletionen identifiziert werden, deren Auftreten potentiell verantwortlich für den veränderten Phänotyp von CVA 386 ist. In diesem Zusammenhang wurden im Rahmen dieser Arbeit die Gene C12L, C14L, C15L und C16L der Deletion I und die Gene M1L, M2L und der OLR 037 der Deletion II charakterisiert. Durch Transfektion von Expressionsplasmiden wurden die entsprechenden Proteine bezüglich ihrer Expression und posttranslationalen Modifikation, sowie ihrer subzellulären Verteilung untersucht. So ließ sich für das Protein M2 eine posttranslationale N-Glykosylierung und die Lokalisation innerhalb des trans-medialen Golgiapparats nachweisen. Zusätzlich konnte eine Sekretion des M2 Proteins im Zellüberstand transfizierter 293T-Zellen gezeigt, sowie die bereits publizierte Inhibition der NF-:B-Aktivierung durch extrazellulär zugegebenes M2 Protein eingeleitet werden. Die Proteine C14 und C15 zeigten sich in der Laserscanmikroskopie mitochondrial lokalisiert; C16 dagegen kolokalisierte neben einer hauptsächlich intranukleären Verteilung zusätzlich mit F-Aktin. Ferner ergaben sich für die Proteine C14 und C15 erste Hinweise auf eine inhibitorische Funktion gegenüber Staurosporin-induzierter Apoptose.
A comprehensive evaluation of seasonal backward trajectories initialized in the northern hemisphere lowermost stratosphere (LMS) has been performed to investigate the factors that determine the temporal and spatial structure of troposphere-to-stratosphere-transport (TST) and it’s impact on the LMS. In particular we explain the fundamental role of the transit time since last TST (tTST) for the chemical composition of the LMS. According to our results the structure of the LMS can be characterized by a layer with tTST<40 days forming a narrow band around the local tropopause. This layer extends about 30K above the local dynamical tropopause, corresponding to the extratropical tropopause transition layer (ExTL) as identified by CO. The LMS beyond this layer shows a relatively well defined separation as marked by an aprupt transition to longer tTST indicating less frequent mixing and a smaller fraction of tropospheric air. Thus the LMS constitutes a region of two well defined regimes of tropospheric influence. These can be characterized mainly by different transport times from the troposphere and different fractions of tropospheric air. Carbon monoxide (CO) mirrors this structure of tTST due to it’s finite lifetime on the order of three months. Water vapour isopleths, on the other hand, do not uniquely indicate TST and are independent of tTST, but are determined by the Lagrangian Cold Point (LCP) of air parcels. Most of the backward trajectories from the LMS experienced their LCP in the tropics and sub-tropics, and TST often occurs 20 days after trajectories have encountered their LCP. Therefore, ExTL properties deduced from CO and H2O provide totally different informations on transport and particular TST for the LMS.
Two different single particle mass spectrometers were operated in parallel at the Swiss High Alpine Research Station Jungfraujoch (JFJ, 3580 m a.s.l.) during the Cloud and Aerosol Characterization Experiment (CLACE 6) in February and March 2007. During mixed phase cloud events ice crystals from 5–20 micro m were separated from larger ice aggregates, non-activated, interstitial aerosol particles and supercooled droplets using an Ice-Counterflow Virtual Impactor (Ice-CVI). During one cloud period supercooled droplets were additionally sampled and analyzed by changing the Ice-CVI setup. The small ice particles and droplets were evaporated by injection into dry air inside the Ice-CVI. The resulting ice and droplet residues (IR and DR) were analyzed for size and composition by the two single particle mass spectrometers: a custom-built Single Particle Laser-Ablation Time-of-Flight Mass Spectrometer (SPLAT) and a commercial Aerosol Time-of-Flight Mass Spectrometer (ATOFMS, TSI Model 3800). During CLACE 6 the SPLAT instrument characterized 355 individual IR that produced a mass spectrum for at least one polarity and the ATOFMS measured 152 IR. The mass spectra were binned in classes, based on the combination of dominating substances, such as mineral dust, sulfate, potassium and elemental carbon or organic material. The derived chemical information from the ice residues is compared to the JFJ ambient aerosol that was sampled while the measurement station was out of clouds (several thousand particles analyzed by SPLAT and ATOFMS) and to the composition of the residues of supercooled cloud droplets (SPLAT: 162 cloud droplet residues analyzed, ATOFMS: 1094). The measurements showed that mineral dust was strongly enhanced in the ice particle residues. Close to all of the SPLAT spectra from ice residues did contain signatures from mineral compounds, albeit connected with varying amounts of soluble compounds. Similarly, close to all of the ATOFMS IR spectra show a mineral or metallic component. Pure sulfate and nitrate containing particles were depleted in the ice residues. Sulfate and nitrate was found to dominate the droplet residues (~90% of the particles). The results from the two different single particle mass spectrometers were generally in agreement. Differences in the results originate from several causes, such as the different wavelength of the desorption and ionisation lasers and different size-dependent particle detection efficiencies.
Background: The integration of the non-cross-resistant chemotherapeutic agents capecitabine and vinorelbine into an intensified dose-dense sequential anthracycline- and taxane-containing regimen in high-risk early breast cancer (EBC) could improve efficacy, but this combination was not examined in this context so far. Methods: Patients with stage II/IIIA EBC (four or more positive lymph nodes) received post-operative intensified dose-dense sequential epirubicin (150mg/m2 every 2 weeks) and paclitaxel (225mg/m2 every 2 weeks) with filgrastim and darbepoetin alfa, followed by capecitabine alone (dose levels 1 and 3) or with vinorelbine (dose levels 2 and 4). Capecitabine was given on days 1-14 every 21 days at 1000 or 1250 mg/m2 twice daily (dose levels 1/2 and 3/4, respectively). Vinorelbine 25 mg/m2 was given on days 1 and 8 of each 21-day course (dose levels 2 and 4). Results: Fifty-one patients were treated. There was one dose-limiting toxicity (DLT) at dose level 1. At dose level 2 (capecitabine and vinorelbine), five of 10 patients experienced DLTs. Therefore evaluation of vinorelbine was abandoned and dose level 3 (capecitabine monotherapy) was expanded. Hand-foot syndrome and diarrhoea were dose limiting with capecitabine 1250 mg/m2 twice daily. At 35.2 months' median follow-up, the estimated 3-year relapse-free and overall survival rates were 82% and 91%, respectively. Administration of capecitabine monotherapy after sequential dose-dense epirubicin and paclitaxel is feasible in node-positive EBC, while the combination of capecitabine and vinorelbine as used here caused more DLTs. Trial registration: Current Controlled Trials ISRCTN38983527.
Background: European robins, Erithacus rubecula, show two types of directional responses to the magnetic field: (1) compass orientation that is based on radical pair processes and lateralized in favor of the right eye and (2) so-called 'fixed direction' responses that originate in the magnetite-based receptors in the upper beak. Both responses are light-dependent. Lateralization of the 'fixed direction' responses would suggest an interaction between the two magnetoreception systems. Results: Robins were tested with either the right or the left eye covered or with both eyes uncovered for their orientation under different light conditions. With 502 nm turquoise light, the birds showed normal compass orientation, whereas they displayed an easterly 'fixed direction' response under a combination of 502 nm turquoise with 590 nm yellow light. Monocularly right-eyed birds with their left eye covered were oriented just as they were binocularly as controls: under turquoise in their northerly migratory direction, under turquoise-and-yellow towards east. The response of monocularly left-eyed birds differed: under turquoise light, they were disoriented, reflecting a lateralization of the magnetic compass system in favor of the right eye, whereas they continued to head eastward under turquoise-and-yellow light. Conclusion: 'Fixed direction' responses are not lateralized. Hence the interactions between the magnetite-receptors in the beak and the visual system do not seem to involve the magnetoreception system based on radical pair processes, but rather other, non-lateralized components of the visual system.
Rezension zu: Gaye Suse Kromer: Obszöne Lust oder etablierte Unterhaltung? Zur Rezeption pornografischer Filme. Hamburg: Diplomica Verlag 2008. 232 Seiten, ISBN 978-3-8366-6730-2, € 39,50 Die Autorin befragte vier Männer und vier Frauen zu ihrer Pornografienutzung und ihren Rezeptionserfahrungen mit dem pornografischen Film Adrenalin (Italien 2003). Selbst nach Maßstäben einer Qualifikationsarbeit überzeugen die Überblickskapitel zu Rechtsgrundlagen, Definition und Geschichte des pornografischen Films, zur theoretischen und fachlichen Verortung nicht; diese werden später auch nicht auf die Interviews bezogen. Den Hauptteil stellen die Interviews dar. Der Autorin gelingt es nur teilweise – so bei der Entwicklung der Leitfragen –, stringente Kategorien für die Auswertung der qualitativen Interviews zu entwickeln. Die im Anhang des Buches abgedruckten Interviews stellen eine interessante Quelle für die Erforschung der Rezeption pornografischer Filme dar.
Im Rahmen der vorliegenden Arbeit wurde eine allgemein anwendbare Methode zur Identifizierung und Quantifizierung kleiner Moleküle mittels MALDI-TOF-MS entwickelt. Dabei wurden zahlreiche Analyten, wie unterschiedliche Arzneistoffe, Neurotransmitter und Lebensmittelinhaltsstoffe in verschiedenen Probenmatrizes analysiert. Bei den verwendeten Matrizes wurden mit a-Cyano-4-Hydroxy-Zimtsäure (CHCA) die besten Ergebnisse erzielt. Es zeigte sich jedoch, dass die Probenpräparation wichtiger war als die Wahl der Matrix, da auch mit anderen Matrizes bei optimierter Probenpräparation sensitive Messungen im niedrigen Massenbereich möglich waren. Insbesondere eine schnelle Trocknung des Probenspots, und damit verbunden die Bildung kleiner Kristalle, ist für die Analytik kleiner Moleküle hilfreich. Bei gleichzeitiger Verwendung geringer Matrixkonzentrationen und geringer Laserintensität konnte so der störende Matrixhintergrund minimiert werden. Eine noch stärkere Suppression der Matrixsignale bei gleichzeitiger Anreicherung der Analyten auf dem Probenspot konnte durch eine Dünnschichtpräparation (TLP) mit CHCA und Nitrozellulose erreicht werden. Allerdings war die TLP für eine automatische Quantifizierung kleiner Moleküle nur bedingt geeignet. Die für kleine Moleküle so wichtige Quantifizierung war durch Verwendung einer optimierten schnell trocknenden Dried Droplet Präparation (DDP) möglich. Die Kombination dieser optimierten DDP mit ausreichend aufsummierten Einzelschussspektren bei gleichzeitiger Verwendung eines internen Standards (IS) ermöglichte eine valide Quantifizierung mit guter Präzision, Linearität und Richtigkeit. Dabei erfüllten die quantifizierten Analyten die Vorgaben der FDA für Präzision und Richtigkeit. Diese Quantifizierungsmethode wurde an Mischungen unterschiedlicher Arzneistoffe, sowohl in Standardlösungen als auch in humanem Plasma, erfolgreich durchgeführt. Dabei genügte ein einziger interner Standard, um alle Arzneistoffe der Mischung schnell und sensitiv zu bestimmen (Bestimmungsgrenze 1-5 ng/ml). Weiterhin war es möglich, den Wirkstoff einer pharmazeutischen Tablette ohne aufwändige Probenvorbereitung schnell und genau zu bestimmen. Dass MALDI über eine hohe Salztoleranz verfügt, wurde bei der Bestimmung von Acetylcholin (ACh) und Cholin (Ch) in Mikrodialysaten bestätigt. Trotz des hohen Salzgehalts der Proben (~150 mM) war eine direkte Messung ohne vorherige Aufarbeitung möglich. Dabei lag die Nachweis- und Bestimmungsgrenze für ACh bei 0,3 bzw. 1 fmol/µl und für Ch bei 20 bzw. 100 fmol/µl. Nach den Standardlösungen wurden in-vivo Mikrodialysate aus dem rechten Striatum verschiedener CD1-Mäuse quantifiziert. Durch Verbindung der Dialysesonde mit einem MALDI-Spotter konnte außerdem die zeitliche Auflösung der Dialyse deutlich verbessert werden. Ein weiterer Anwendungsbereich stellte die Bestimmung von Melamin in Milch und Milchpulver dar. Nach einfacher Probenvorbereitung war es möglich, Melamin mit einer Bestimmungsgrenze von 0,25 ppm in Milchpulver bzw. 0,625 ppm in Milch direkt und schnell zu quantifizieren. Damit wurden die geforderten Grenzwerte von 1 ppm für Babynahrung bzw. 2,5 ppm für übrige Lebensmittel leicht erreicht. Als letzte Methode wurden verschiedene Inhaltstoffe in Energy Drinks bestimmt. Bei Verwendung von Theophyllin als IS konnte so neben Koffein auch Niacin und Pyridoxin erfolgreich und ohne Probenvorbereitung schnell quantifiziert werden. Zusammenfassend zeigt diese Arbeit, dass MALDI auch für die Analytik kleiner Moleküle gut geeignet ist. Neben der Identifizierung der Analyten war auch die Quantifizierung mit guter Linearität, Reproduzierbarkeit und Richtigkeit möglich. Dabei konnten mit der Standardmatrix CHCA verschiedenste niedermolekulare Analyten in unterschiedlichsten Probenmatrizes bestimmt werden. Im direkten Vergleich war die Sensitivität der vorgestellten MALDI-Methoden mindestens vergleichbar, wenn nicht gar besser als bestehende LC-MS-Methoden. Da auf den Einsatz einer LC verzichtet werden kann, ermöglich MALDI einen sehr viel höheren Probendurchsatz. Zudem war keine spezielle Matrix, besondere Geräte oder zeitaufwändige Probenvorbereitung und Präparation notwendig.