Universitätspublikationen
Refine
Year of publication
Document Type
- Article (13741)
- Part of Periodical (3487)
- Doctoral Thesis (3332)
- Contribution to a Periodical (2163)
- Book (2111)
- Working Paper (1890)
- Preprint (1758)
- Review (1064)
- Report (909)
- Conference Proceeding (703)
Language
- English (17515)
- German (14018)
- Portuguese (231)
- Spanish (123)
- Italian (66)
- French (64)
- Multiple languages (64)
- Turkish (12)
- Ukrainian (10)
- slo (7)
Keywords
- Deutschland (132)
- COVID-19 (98)
- inflammation (96)
- Financial Institutions (92)
- ECB (69)
- Capital Markets Union (67)
- SARS-CoV-2 (64)
- Financial Markets (61)
- Adorno (58)
- Banking Regulation (52)
Institute
- Medizin (6689)
- Präsidium (5136)
- Physik (3598)
- Wirtschaftswissenschaften (2300)
- Gesellschaftswissenschaften (2021)
- Biowissenschaften (1773)
- Frankfurt Institute for Advanced Studies (FIAS) (1671)
- Sustainable Architecture for Finance in Europe (SAFE) (1405)
- Biochemie und Chemie (1400)
- Informatik (1393)
- Center for Financial Studies (CFS) (1266)
- Rechtswissenschaft (1060)
- Neuere Philologien (821)
- House of Finance (HoF) (807)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (735)
- Geschichtswissenschaften (726)
- Geowissenschaften (688)
- Biochemie, Chemie und Pharmazie (674)
- Philosophie (570)
- Kulturwissenschaften (531)
- Psychologie (483)
- E-Finance Lab e.V. (436)
- Universitätsbibliothek (422)
- Institut für Ökologie, Evolution und Diversität (405)
- Institut für Sozialforschung (IFS) (394)
- Senckenbergische Naturforschende Gesellschaft (394)
- Erziehungswissenschaften (377)
- Institut für Wirtschaft, Arbeit, und Kultur (IWAK) (368)
- Pharmazie (335)
- Sprach- und Kulturwissenschaften (312)
- Biodiversität und Klima Forschungszentrum (BiK-F) (292)
- Evangelische Theologie (275)
- Geographie (241)
- Psychologie und Sportwissenschaften (225)
- Geowissenschaften / Geographie (218)
- Sportwissenschaften (217)
- Informatik und Mathematik (207)
- Institute for Monetary and Financial Stability (IMFS) (205)
- Institut für sozial-ökologische Forschung (ISOE) (197)
- Mathematik (193)
- Exzellenzcluster Makromolekulare Komplexe (173)
- MPI für Biophysik (168)
- Sprachwissenschaften (159)
- MPI für Hirnforschung (134)
- Georg-Speyer-Haus (131)
- Sonderforschungsbereiche / Forschungskollegs (126)
- Buchmann Institut für Molekulare Lebenswissenschaften (BMLS) (109)
- Zentrum für Biomolekulare Magnetische Resonanz (BMRZ) (105)
- Ernst Strüngmann Institut (95)
- Zentrum für Arzneimittelforschung, Entwicklung und Sicherheit (ZAFES) (93)
- Philosophie und Geschichtswissenschaften (80)
- Institute for Law and Finance (ILF) (68)
- Katholische Theologie (64)
- Cornelia Goethe Centrum für Frauenstudien und die Erforschung der Geschlechterverhältnisse (CGC) (59)
- Deutsches Institut für Internationale Pädagogische Forschung (DIPF) (55)
- Foundation of Law and Finance (51)
- Hessische Stiftung für Friedens- und Konfliktforschung (HSFK) (48)
- MPI für empirische Ästhetik (44)
- Interdisziplinäres Zentrum für Ostasienstudien (IZO) (40)
- ELEMENTS (37)
- Gleichstellungsbüro (36)
- Fachübergreifend (35)
- Frobenius Institut (33)
- Europäische Akademie der Arbeit in der Universität Frankfurt am Main (32)
- Zentrum für Weiterbildung (31)
- Starker Start ins Studium: Qualitätspakt Lehre (30)
- Extern (29)
- Hochschulrechenzentrum (27)
- Zentrum für Interdisziplinäre Afrikaforschung (ZIAF) (26)
- LOEWE-Schwerpunkt Außergerichtliche und gerichtliche Konfliktlösung (25)
- studiumdigitale (25)
- Sigmund-Freud Institut – Forschungsinstitut fur Psychoanalyse und ihre Anwendungen (19)
- Universität des 3. Lebensalters e.V. (19)
- Akademie für Bildungsforschung und Lehrerbildung (bisher: Zentrum für Lehrerbildung und Schul- und Unterrichtsforschung) (18)
- Exzellenzcluster Herz-Lungen-System (18)
- Center for Membrane Proteomics (CMP) (17)
- Museum Giersch der Goethe Universität (17)
- Forschungskolleg Humanwissenschaften (16)
- Centre for Drug Research (15)
- Zentrum für Nordamerika-Forschung (ZENAF) (15)
- Center for Scientific Computing (CSC) (11)
- Interdisziplinäres Zentrum für Neurowissenschaften Frankfurt (IZNF) (9)
- keine Angabe Institut (9)
- LOEWE-Schwerpunkt für Integrative Pilzforschung (8)
- Forschungszentrum Historische Geisteswissenschaften (FHG) (7)
- Fritz Bauer Institut (7)
- Helmholtz International Center for FAIR (7)
- DFG-Forschergruppen (6)
- Goethe-Zentrum für Wissenschaftliches Rechnen (G-CSC) (6)
- Zentrum für Hochschulsport (ZfH) (6)
- Internationales Studienzentrum (4)
- Frankfurt MathFinance Institute (FMFI) (3)
- Institut für Religionsphilosophische Forschung (3)
- Schreibzentrum (3)
- Zentrale Einrichtung (3)
- (2)
- Akademie für Bildungsforschung und Lehrkräftebildung (2)
- Institut für Bienenkunde (2)
- Wilhelm-Merton-Zentrum (2)
- Diagnostic Center of Acute Leukemia (1)
- Exzellenzcluster (1)
- Fachübergreifende Einrichtungen (1)
- Forschungscluster (1)
- GRADE - Goethe Research Academy for Early Career Researchers (1)
- Katholische Hochschulgemeinde (KHG) (1)
- SFB 268 (1)
- Zentrum zur Erforschung der Frühen Neuzeit (Renaissance-Institut) (1)
- keine Angabe Fachbereich (1)
In bioinformatics, biochemical pathways can be modeled by many differential equations. It is still an open problem how to fit the huge amount of parameters of the equations to the available data. Here, the approach of systematically learning the parameters is necessary. In this paper, for the small, important example of inflammation modeling a network is constructed and different learning algorithms are proposed. It turned out that due to the nonlinear dynamics evolutionary approaches are necessary to fit the parameters for sparse, given data. Proceedings of the 15th IEEE International Conference on Tools with Artificial Intelligence - ICTAI 2003
The early prediction of mortality is one of the unresolved tasks in intensive care medicine. This contribution models medical symptoms as observations cased by transitions between hidden markov states. Learning the underlying state transition probabilities results in a prediction probability success of about 91%. The results are discussed and put in relation to the model used. Finally, the rationales for using the model are reflected: Are there states in the septic shock data?
In intensive care units physicians are aware of a high lethality rate of septic shock patients. In this contribution we present typical problems and results of a retrospective, data driven analysis based on two neural network methods applied on the data of two clinical studies. Our approach includes necessary steps of data mining, i.e. building up a data base, cleaning and preprocessing the data and finally choosing an adequate analysis for the medical patient data. We chose two architectures based on supervised neural networks. The patient data is classified into two classes (survived and deceased) by a diagnosis based either on the black-box approach of a growing RBF network and otherwise on a second network which can be used to explain its diagnosis by human-understandable diagnostic rules. The advantages and drawbacks of these classification methods for an early warning system are discussed.
In bioinformatics, biochemical pathways can be modeled by many differential equations. It is still an open problem how to fit the huge amount of parameters of the equations to the available data. Here, the approach of systematically learning the parameters is necessary. In this paper, for the small, important example of inflammation modeling a network is constructed and different learning algorithms are proposed. It turned out that due to the nonlinear dynamics evolutionary approaches are necessary to fit the parameters for sparse, given data. Keywords: model parameter adaption, septic shock. coupled differential equations, genetic algorithm.
The selection of features for classification, clustering and approximation is an important task in pattern recognition, data mining and soft computing. For real-valued features, this contribution shows how feature selection for a high number of features can be implemented using mutual in-formation. Especially, the common problem for mutual information computation of computing joint probabilities for many dimensions using only a few samples is treated by using the Rènyi mutual information of order two as computational base. For this, the Grassberger-Takens corre-lation integral is used which was developed for estimating probability densities in chaos theory. Additionally, an adaptive procedure for computing the hypercube size is introduced and for real world applications, the treatment of missing values is included. The computation procedure is accelerated by exploiting the ranking of the set of real feature values especially for the example of time series. As example, a small blackbox-glassbox example shows how the relevant features and their time lags are determined in the time series even if the input feature time series determine nonlinearly the output. A more realistic example from chemical industry shows that this enables a better ap-proximation of the input-output mapping than the best neural network approach developed for an international contest. By the computationally efficient implementation, mutual information becomes an attractive tool for feature selection even for a high number of real-valued features.
In its first part, this contribution reviews shortly the application of neural network methods to medical problems and characterizes its advantages and problems in the context of the medical background. Successful application examples show that human diagnostic capabilities are significantly worse than the neural diagnostic systems. Then, paradigm of neural networks is shortly introduced and the main problems of medical data base and the basic approaches for training and testing a network by medical data are described. Additionally, the problem of interfacing the network and its result is given and the neuro-fuzzy approach is presented. Finally, as case study of neural rule based diagnosis septic shock diagnosis is described, on one hand by a growing neural network and on the other hand by a rule based system. Keywords: Statistical Classification, Adaptive Prediction, Neural Networks, Neurofuzzy, Medical Systems
In contrast to the symbolic approach, neural networks seldom are designed to explain what they have learned. This is a major obstacle for its use in everyday life. With the appearance of neuro-fuzzy systems which use vague, human-like categories the situation has changed. Based on the well-known mechanisms of learning for RBF networks, a special neuro-fuzzy interface is proposed in this paper. It is especially useful in medical applications, using the notation and habits of physicians and other medically trained people. As an example, a liver disease diagnosis system is presented.
The prevention of credit card fraud is an important application for prediction techniques. One major obstacle for using neural network training techniques is the high necessary diagnostic quality: Since only one financial transaction of a thousand is invalid no prediction success less than 99.9% is acceptable. Due to these credit card transaction proportions complete new concepts had to be developed and tested on real credit card data. This paper shows how advanced data mining techniques and neural network algorithm can be combined successfully to obtain a high fraud coverage combined with a low false alarm rate.
This paper describes the use of a Radial Basis Function (RBF) neural network in the approximation of process parameters for the extrusion of a rubber profile in tyre production. After introducing the rubber industry problem, the RBF network model and the RBF net learning algorithm are developed, which uses a growing number of RBF units to compensate the approximation error up to the desired error limit. Its performance is shown for simple analytic examples. Then the paper describes the modelling of the industrial problem. Simulations show good results, even when using only a few training samples. The paper is concluded by a discussion of possible systematic error influences, improvements and potential generalisation benefits. Keywords: Adaptive process control; Parameter estimation; RBF-nets; Rubber extrusion
Diese Arbeit plädiert für eine rationale Behandlung von Patientendaten und untersucht dazu die Analyse der Daten mit Hilfe neuronale Netze etwas näher. Erfolgreiche Beispielanwendungen zeigen, daß die menschlichen Diagnosefähigkeiten deutlich schlechter sind als neuronale Diagnosesysteme. Für das Beispiel der neueren Architektur mit RBF-Netzen wird die Funktionalität näher erläutert und gezeigt, wie menschliche und neuronale Expertise miteinander gekoppelt werden kann. Der Ausblick deutet Anwendungen und Praxisproblematik derartiger Systeme an.
The encoding of images by semantic entities is still an unresolved task. This paper proposes the encoding of images by only a few important components or image primitives. Classically, this can be done by the Principal Component Analysis (PCA). Recently, the Independent Component Analysis (ICA) has found strong interest in the signal processing and neural network community. Using this as pattern primitives we aim for source patterns with the highest occurrence probability or highest information. For the example of a synthetic image composed by characters this idea selects the salient ones. For natural images it does not lead to an acceptable reproduction error since no a-priori probabilities can be computed. Combining the traditional principal component criteria of PCA with the independence property of ICA we obtain a better encoding. It turns out that the Independent Principal Components (IPC) in contrast to the Principal Independent Components (PIC) implement the classical demand of Shannon’s rate distortion theory.
This paper proposes a new approach for the encoding of images by only a few important components. Classically, this is done by the Principal Component Analysis (PCA). Recently, the Independent Component Analysis (ICA) has found strong interest in the neural network community. Applied to images, we aim for the most important source patterns with the highest occurrence probability or highest information called principal independent components (PIC). For the example of a synthetic image composed by characters this idea selects the salient ones. For natural images it does not lead to an acceptable reproduction error since no a-priori probabilities can be computed. Combining the traditional principal component criteria of PCA with the independence property of ICA we obtain a better encoding. It turns out that this definition of PIC implements the classical demand of Shannon’s rate distortion theory.
This paper describes the problems and an adaptive solution for process control in rubber industry. We show that the human and economical benefits of an adaptive solution for the approximation of process parameters are very attractive. The modeling of the industrial problem is done by the means of artificial neural networks. For the example of the extrusion of a rubber profile in tire production our method shows good results even using only a few training samples.
In this paper we regard first the situation where parallel channels are disturbed by noise. With the goal of maximal information conservation we deduce the conditions for a transform which "immunizes" the channels against noise influence before the signals are used in later operations. It shows up that the signals have to be decorrelated and normalized by the filter which corresponds for the case of one channel to the classical result of Shannon. Additional simulations for image encoding and decoding show that this constitutes an efficient approach for noise suppression. Furthermore, by a corresponding objective function we deduce the stochastic and deterministic learning rules for a neural network that implements the data orthonormalization. In comparison with other already existing normalization networks our network shows approximately the same in the stochastic case but, by its generic deduction ensures the convergence and enables the use as independent building block in other contexts, e.g. whitening for independent component analysis. Keywords: information conservation, whitening filter, data orthonormalization network, image encoding, noise suppression.
Im Zeitraum 1. 11. 1993 bis 30. 3. 1997 wurden 1149 allgemeinchirurgische Intensivpatienten prospektiv erfaßt, von denen 114 die Kriterien des septischen Schocks erfüllten. Die Letalität der Patienten mit einem septischen Schock betrug 47,3%. Nach Training eines neuronalen Netzes mit 91 (von insgesamt n = 114) Patienten ergab die Testung bei den verbleibenden 23 Patienten bei der Berücksichtigung von Parameterveränderungen vom 1. auf den 2. Tag des septischen Schocks folgendes Ergebnis: Alle 10 verstorbenen Patienten wurden korrekt als nicht überlebend vorhergesagt, von den 13 Überlebenden wurden 12 korrekt als überlebend vorhergesagt (Sensitivität 100%; Spezifität 92,3%).
This paper describes the use of a radial basis function (RBF) neural network. It approximates the process parameters for the extrusion of a rubber profile used in tyre production. After introducing the problem, we describe the RBF net algorithm and the modeling of the industrial problem. The algorithm shows good results even using only a few training samples. It turns out that the „curse of dimensions“ plays an important role in the model. The paper concludes by a discussion of possible systematic error influences and improvements.
The paper focuses on the division of the sensor field into subsets of sensor events and proposes the linear transformation with the smallest achievable error for reproduction: the transform coding approach using the principal component analysis (PCA). For the implementation of the PCA, this paper introduces a new symmetrical, lateral inhibited neural network model, proposes an objective function for it and deduces the corresponding learning rules. The necessary conditions for the learning rate and the inhibition parameter for balancing the crosscorrelations vs. the autocorrelations are computed. The simulation reveals that an increasing inhibition can speed up the convergence process in the beginning slightly. In the remaining paper, the application of the network in picture encoding is discussed. Here, the use of non-completely connected networks for the self-organized formation of templates in cellular neural networks is shown. It turns out that the self-organizing Kohonen map is just the non-linear, first order approximation of a general self-organizing scheme. Hereby, the classical transform picture coding is changed to a parallel, local model of linear transformation by locally changing sets of self-organized eigenvector projections with overlapping input receptive fields. This approach favors an effective, cheap implementation of sensor encoding directly on the sensor chip. Keywords: Transform coding, Principal component analysis, Lateral inhibited network, Cellular neural network, Kohonen map, Self-organized eigenvector jets.
After a short introduction into traditional image transform coding, multirate systems and multiscale signal coding the paper focuses on the subject of image encoding by a neural network. Taking also noise into account a network model is proposed which not only learns the optimal localized basis functions for the transform but also learns to implement a whitening filter by multi-resolution encoding. A simulation showing the multi-resolution capabilitys concludes the contribution.
We present a framework for the self-organized formation of high level learning by a statistical preprocessing of features. The paper focuses first on the formation of the features in the context of layers of feature processing units as a kind of resource-restricted associative multiresolution learning We clame that such an architecture must reach maturity by basic statistical proportions, optimizing the information processing capabilities of each layer. The final symbolic output is learned by pure association of features of different levels and kind of sensorial input. Finally, we also show that common error-correction learning for motor skills can be accomplished also by non-specific associative learning. Keywords: feedforward network layers, maximal information gain, restricted Hebbian learning, cellular neural nets, evolutionary associative learning
One of the most interesting domains of feedforward networks is the processing of sensor signals. There do exist some networks which extract most of the information by implementing the maximum entropy principle for Gaussian sources. This is done by transforming input patterns to the base of eigenvectors of the input autocorrelation matrix with the biggest eigenvalues. The basic building block of these networks is the linear neuron, learning with the Oja learning rule. Nevertheless, some researchers in pattern recognition theory claim that for pattern recognition and classification clustering transformations are needed which reduce the intra-class entropy. This leads to stable, reliable features and is implemented for Gaussian sources by a linear transformation using the eigenvectors with the smallest eigenvalues. In another paper (Brause 1992) it is shown that the basic building block for such a transformation can be implemented by a linear neuron using an Anti-Hebb rule and restricted weights. This paper shows the analog VLSI design for such a building block, using standard modules of multiplication and addition. The most tedious problem in this VLSI-application is the design of an analog vector normalization circuitry. It can be shown that the standard approaches of weight summation will not give the convergence to the eigenvectors for a proper feature transformation. To avoid this problem, our design differs significantly from the standard approaches by computing the real Euclidean norm. Keywords: minimum entropy, principal component analysis, VLSI, neural networks, surface approximation, cluster transformation, weight normalization circuit.
It is well known that artificial neural nets can be used as approximators of any continuous functions to any desired degree and therefore be used e.g. in high - speed, real-time process control. Nevertheless, for a given application and a given network architecture the non-trivial task remains to determine the necessary number of neurons and the necessary accuracy (number of bits) per weight for a satisfactory operation which are critical issues in VLSI and computer implementations of nontrivial tasks. In this paper the accuracy of the weights and the number of neurons are seen as general system parameters which determine the maximal approximation error by the absolute amount and the relative distribution of information contained in the network. We define as the error-bounded network descriptional complexity the minimal number of bits for a class of approximation networks which show a certain approximation error and achieve the conditions for this goal by the new principle of optimal information distribution. For two examples, a simple linear approximation of a non-linear, quadratic function and a non-linear approximation of the inverse kinematic transformation used in robot manipulator control, the principle of optimal information distribution gives the the optimal number of neurons and the resolutions of the variables, i.e. the minimal amount of storage for the neural net. Keywords: Kolmogorov complexity, e-Entropy, rate-distortion theory, approximation networks, information distribution, weight resolutions, Kohonen mapping, robot control.
It is well known that artificial neural nets can be used as approximators of any continous functions to any desired degree. Nevertheless, for a given application and a given network architecture the non-trivial task rests to determine the necessary number of neurons and the necessary accuracy (number of bits) per weight for a satisfactory operation. In this paper the problem is treated by an information theoretic approach. The values for the weights and thresholds in the approximator network are determined analytically. Furthermore, the accuracy of the weights and the number of neurons are seen as general system parameters which determine the the maximal output information (i.e. the approximation error) by the absolute amount and the relative distribution of information contained in the network. A new principle of optimal information distribution is proposed and the conditions for the optimal system parameters are derived. For the simple, instructive example of a linear approximation of a non-linear, quadratic function, the principle of optimal information distribution gives the the optimal system parameters, i.e. the number of neurons and the different resolutions of the variables.
Clathrates are candidate materials for thermoelectric applications because of a number of unique properties. The clathrate I phases in the Ba-Ni-Ge ternary system allow controlled variation of the charge carrier concentration by adjusting the Ni content. Depending on the Ni content, the physical properties vary from metal-like to insulator-like and show a transition from p-type to n-type conduction. Here we present first results on the characterization of millimeter-sized single crystals grown by the Bridgman technique. Single crystals with a composition of Ba8Ni3.5Ge42.1h0.4 show metallic behavior (dp/dT > 0) albeit with high resistivity at room temperature [p (300 K) = 1 mOhm cm]. The charge carrier concentration at 300 K, as determined from Hall-effect measurements, is 2.3 e-/unit cell. The dimensionless thermoelectric figure of merit estimated at 680 K is ZT ~ 0.2. Keywords Clathrates - thermoelectric material - intermetallic compound - nickel
We suggest a new method to compute the spectrum and wave functions of excited states. We construct a stochastic basis of Bargmann link states, drawn from a physical probability density distribution and compute transition amplitudes between stochastic basis states. From such transition matrix we extract wave functions and the energy spectrum. We apply this method toU(1)2+1 lattice gauge theory. As a test we compute the energy spectrum, wave functions and thermodynamical functions of the electric Hamiltonian and compare it with analytical results. We find excellent agreement. We observe scaling of energies and wave functions in the variable of time. We also present first results on a small lattice for the full Hamiltonian including the magnetic term.
Central elements of the Bologna declaration have been implemented in a huge variety of curricula in humanities, social sciences, natural sciences and engineering sciences at German universities. Overall the results have been nothing less than disastrous. Surprisingly, this seems to be the perfect time for German universities to talk about introducing a curriculum that is fully compatible with the Bologna declaration for medical education as well. However, German medical education does not have problems the Bologna declaration is intended to solve, such as quality, mobility, internationalization and employability. It is already in the Post-Bologna age.
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Ein wesentliches Ziel der modernen Perforatorlappen vom Unterbauch (DIEP-flap) für die Brustrekonstruktion nach Mammaamputation ist die Schonung der Rektusmuskulatur. Der Funktionserhalt der Muskulatur ist abhängig von der Präparationstechnik. In unserer Studie wird die Interaktion zwischen der Muskel- und Nervendurchtrennung und der postoperativen Muskelfunktion untersucht. Material und Methoden: Unser Patientenkollektiv umfasst 42 Patienten. Im Zeitraum von 6/04 bis 06/07 wurden 44 DIEP-Lappen an unserer Klink nach dem gleichen operativen Standard von unterschiedlichen Operateuren zur Brustrekonstruktion transferiert. Die Standards beinhalten die beidseitige Präparation der Perforatorgefäße des Unterbauches, der SIEA-Gefäße, die Auswahl der 2–4 kräftigsten Perforatoren einer Seite und die schonende Präparation der Rektusmuskulatur und der motorischen Nervenäste.In einer prospektiven monozentrischen Studie haben wir die Rektusmuskulatur präoperativ und 6 Monate postoperativ untersucht. Für die Funktionsanalyse wurde sowohl die Myosonografie der Rektusmuskulatur als auch eine klinischen Untersuchung angewandt. Intraoperativ wurde die Anzahl und Lokalisation der Perforatoren, die Länge der gespreizten Muskulatur, die Länge der durchtrennten Muskulatur und die Anzahl und Lokalisation der durchtrennten intramuskulären Nerven in einer Skizze eingetragen. Die Relation zwischen der intraoperativen Muskel- und Nervenschädigung und der postoperativen Funktion wurde analysiert. Ergebnisse: Bei der Hebung des DIEP – flaps wurden im Durchschnitt 10,8 cm Muskulatur gespreizt, 8,2 cm Muskulatur getunnelt und 2,5 cm Muskulatur durchtrennt. In 41% (18 Pat) wurde 1 motorischer Nervenast durchtrennt, in 27,3% (12 Pat) waren es 2 und in 13,6% (6 Pat) 3 Nervenäste. Bei der klinischen Untersuchung 6 Monate postoperativ hatten 8 Patientinnen noch funktionelle Störungen beim Heben schwerer Gegenstände. Myosonografisch fand sich bei 3 Patientinnen eine Funktionsminderung: 1 vollständiger Funktionsverlust der Muskulatur mit Relaxatio, 2 relevante Minderungen der Kontraktilität Bei keiner Patientin fand sich eine Bauchwandhernie. Bei allen Patientinnen mit einer Beeinträchtigung der Muskulatur waren mind. 2 motorische Nervenäste durchtrennt worden. Schlussfolgerung: Die klinische und myosonografische Funktionsanalyse der Bauchwand ermöglicht die Erstellung von Standards zur verbesserten Operationstechnik. Unsere Ergebnisse zeigen, dass die Durchtrennung von 2 oder mehr motorischen Nervenästen vermieden werden muß. Die Länge der durchtrennten und gespreizten Muskulatur ist dagegen von geringerer Bedeutung.
Einleitung: Die pathologische Stimulierbarkeit von Serum-Calcitonin (CT) im relativ niedrigen Bereich (über 100 bis 300 pg/ml) trennt nicht hinreichend zwischen C-Zell-Hyperplasie (CCH) und C-Zell-(Mikro-)Karzinom (CCC), bei Überwiegen der Fälle mit CCH. Der Schilddrüsenisthmus ist frei von C-Zellen (Lit. mult., eigene Studie). Dies führte zur Methode der ITBL , welche nun an einer größeren prospektiv dokumentierten Serie von Patienten evaluiert wird.
Material und Methoden: 102 Patienten mit präoperativ gering bis mäßig erhöhtem CT (stim.≥100 ≤400 pg/ml) wurden mit der Intention zur ITBL operiert. Bei 30 erfolgte die Komplettierung zur totalen Thyreoidektomie (TTX), davon 27 in gleicher Sitzung, im Fall von Malignität unter Einschluss der systematischen Lymphknotendissektion (LNX). Gründe zur Komplettierung waren Mikrokarzinome (12 medulläre, 7 differenzierte) oder benigne Isthmusknoten (n=11).
Ergebnisse: Bei allen 72 Patienten mit definitiver ITBL (darunter 2 Mikro-CCC, übrige CCH) lag, ebenso wie bei den 30 Patienten mit TTX, das postoperative CT unter der Messgrenze (unter 2 pg/ml), mit einer Ausnahme (3 pg/ml, nicht stimulierbar); maximal stim. CT war bei 5 der 72 Patienten im unteren Normbereich messbar (3 – 4,6 pg/ml), bei den übrigen ebenfalls unter der Messgrenze. Alle 102 Patienten waren "biochemisch geheilt".
Schlussfolgerung: Die ITBL hat sich mit hinreichender Sicherheit als optimale Operationsmethode für Fälle mit CCH erwiesen und ist bzgl. ihrer Radikalität der TTX gleichwertig, unter Belassung eines gesunden Schilddrüsenrestes (Isthmus) von funktioneller Relevanz (2 – 5 g).
Die Virtuelle Fachbibliothek Biologie (www.vifabio.de) bündelt die Recherche nach wissenschaftlich hochwertigen Quellen aus Bibliotheken, Aufsatzbanken und Internet. Zentrales Element von vifabio ist dabei der Virtuelle Katalog: Mit einer Suchanfrage werden mehrere Kataloge zoologisch bzw. ornithologisch relevanter Bibliotheken, Zeitschriftendatenbanken wie Zoological Record (Nationallizenz 1864 bis 2007 für Nutzer in akademischen Einrichtungen), BioLIS und der Aufsatzkatalog OLC, sowie Landesbibliographien und der Internetquellen-Führer von vifabio durchsucht. Verlinkungen zur Elektronischen Zeitschriftenbibliothek Regensburg (EZB), zum Lieferdienst subito sowie zum Karlsruher Virtuellen Katalog (KVK) erleichtern den Zugang zum Volltext oder zum gedruckten Exemplar. Weitere Module von vifabio wie der Internetquellen-Führer bzw. der Datenbank-Führer eröffnen zusätzliche Rechercheoptionen.
Towards correctness of program transformations through unification and critical pair computation
(2010)
Correctness of program transformations in extended lambda-calculi with a contextual semantics is usually based on reasoning about the operational semantics which is a rewrite semantics. A successful approach is the combination of a context lemma with the computation of overlaps between program transformations and the reduction rules, which results in so-called complete sets of diagrams. The method is similar to the computation of critical pairs for the completion of term rewriting systems. We explore cases where the computation of these overlaps can be done in a first order way by variants of critical pair computation that use unification algorithms. As a case study of an application we describe a finitary and decidable unification algorithm for the combination of the equational theory of left-commutativity modelling multi-sets, context variables and many-sorted unification. Sets of equations are restricted to be almost linear, i.e. every variable and context variable occurs at most once, where we allow one exception: variables of a sort without ground terms may occur several times. Every context variable must have an argument-sort in the free part of the signature. We also extend the unification algorithm by the treatment of binding-chains in let- and letrec-environments and by context-classes. This results in a unification algorithm that can be applied to all overlaps of normal-order reductions and transformations in an extended lambda calculus with letrec that we use as a case study.
Die Allmacht der göttlichen Gnade in der Gaudiya-Vaisnava-Theologie Srila Bhaktivinoda Thakuras
(2010)
Yajnavalkya : seine Philosophie – seine Soteriologie ; Klaus Mylius zum 80. Geburtstag gewidmet
(2010)
Measuring confidence and uncertainty during the financial crisis : evidence from the CFS survey
(2010)
The CFS survey covers individual situations of banks and other companies of the financial sector during the financial crisis. This provides a rare possibility to analyze appraisals, expectations and forecast errors of the core sector of the recent turmoil. Following standard ways of aggregating individual survey data, we first present and introduce the CFS survey by comparing CFS indicators of confidence and predicted confidence to ifo and ZEW indicators. The major contribution is the analysis of several indicators of uncertainty. In addition to well established concepts, we introduce innovative measures based on the skewness of forecast errors and on the share of ‘no response’ replies. Results show that uncertainty indicators fit quite well with pattern of real and financial time series of the time period 2007 to 2010. Business Sentiment , Financial Crisis , Survey Indicator , Uncertainty
This paper provides theory as well as empirical results for pre-averaging estimators of the daily quadratic variation of asset prices. We derive jump robust inference for pre-averaging estimators, corresponding feasible central limit theorems and an explicit test on serial dependence in microstructure noise. Using transaction data of different stocks traded at the NYSE, we analyze the estimators’ sensitivity to the choice of the pre-averaging bandwidth and suggest an optimal interval length. Moreover, we investigate the dependence of pre-averaging based inference on the sampling scheme, the sampling frequency, microstructure noise properties as well as the occurrence of jumps. As a result of a detailed empirical study we provide guidance for optimal implementation of pre-averaging estimators and discuss potential pitfalls in practice. Quadratic Variation , MarketMicrostructure Noise , Pre-averaging , Sampling Schemes , Jumps
Nahrungsmittelallergikern steht aufgrund inakzeptabler Nebenwirkungen bei der spezifischen Immuntherapie zurzeit noch keine kausale Therapie dieser Erkrankung zur Verfügung. Demzufolge bleibt die Vermeidung der entsprechenden Lebensmittel für Nahrungsmittelallergiker der einzige Weg möglicherweise lebensbedrohlichen allergischen Reaktionen zu entgehen. Ziel dieser Arbeit war es, das Potential eines viralen Vektors für die Verwendung bei der spezifischen Immuntherapie der Lebensmittelallergie zu untersuchen. Die Überlegung dahinter war, das Risiko eines anaphylaktischen Schocks, der bei Injektion eines Allergens immer gegeben ist, durch intrazelluläre Expression des Proteins über das rekombinante Virus zu verringern. Zusätzlich dazu bringt das modifizierte Vacciniavirus Ankara (MVA) ideale Voraussetzungen für eine Allergievakzine mit: Die Infektion mit MVA führt zu einer stark Th1-gerichteten Immunantwort gegen die viral exprimierte Proteine, die möglicherweise die allergische Th2-gerichtete Immunantwort modulieren kann. Die prophylaktische Immunisierung mit MVA-OVA im Mausmodell der systemischen Sensibilisierung gegen Ovalbumin (OVA) führte dosisabhängig zur Suppression der spezifischen IgE-Antwort und somit zum Schutz vor allergischer Sensibilisierung. Zusätzlich konnte nachgewiesen werden, dass die Vakzinierung mit MVA-OVA eine dauerhafte spezifische IgG-Antwort induziert. Diese Daten unterstützen das Konzept einer Modulation der Sensibilisierung durch MVA-Vakzine. Weiterhin wurden zwei rekombinante Vakzinen generiert, mittels derer entweder das Tropomyosin aus Garnelen (Pen a 1) oder das Lipid-Transfer-Protein aus Haselnuss (Cor a 8) intrazellulär exprimiert werden konnte. Dass die Sensibilisierung gegen diese Allergene häufig mit schweren allergischen Reaktionen korreliert, unterstreicht die Notwendigkeit einer verbesserten Immuntherapie in diesem Bereich. Während MVA-Pen a 1 in ausreichender Menge und Qualität für die Verwendung im Mausmodell hergestellt werden konnte, gelang es nicht, eine homogene Population von MVA-Cor a 8 zu gewinnen, in der das Selektionsgen K1L nicht mehr vorhanden war. Parallel zur Virusherstellung wurden Mausmodelle der Sensibilisierung gegen Cor a 8 und Pen a 1 entwickelt. Vergleiche unterschiedlicher Mausstämme ergaben, dass sich Mäuse des Stammes CBA/J am empfänglichsten für eine systemische Sensibilisierung mit Cor a 8 sind. Aufgrund von Erfahrungen zur Sensibilisierung gegen Pen a 1 wurden Mäuse des Stammes C3H/HeJ bei der Etablierung eines Garnelenallergiemodells verwendet. Es zeigte sich, dass durch die intragastrale Applikation von 0,1 mg Pen a 1 sowie Choleratoxin als Adjuvanz (drei Gaben in dreiwöchigem Abstand), gefolgt von einer systemischen Gabe des Allergens mit Aluminiumhydroxid eine spezifische Sensibilisierung hervorgerufen werden konnte, die nach Exposition mit Pen a 1 zu allergischen Symptomen führte. Auch in diesem Modell bot die prophylaktische Immunisierung mit MVA-Pen a 1 Schutz vor Pen a 1spezifischer Sensibilisierung. Um die therapeutische Effektivität der Vakzine ermitteln zu können, muss die begonnene Etablierung eines Allergiemodells mit symptomauslösenden Provokationen und immunologischen Analysen weitergeführt werden. Der in dieser Studie beobachtete starke schützende Effekt einer Vakzinierung mit MVA vor allergischer Sensibilisierung und das sehr gute Sicherheitsprofil dieses Vektors in klinischen Studien zu anderen Erkrankungen belegt die Möglichkeit einer Verwendung von MVA zur erfolgreichen spezifischen Immuntherapie der Lebensmittelallergie.
Einleitung: Der Schlauchmagen (Sleeve Gastrectomy) wurde zunächst als erster Teil der biliopankreatischen Diversion mit Duodealswitch eingeführt, um das operative Risiko durch eine Zweischritt-Therapie zu senken. Zunehmend wird das Verfahren nun auch als eigeneständige Operation zur Gewichtsreduktion eingesetzt, obwohl noch keine Langzeitergebnisse vorliegen.
Material und Methoden: Im Zeitraum von 03/2001 bis 03/2007 wurden 120 Patienten (mittleres Alter: 40,3 Jahre; Geschlecht : 86 Frauen, 34 Männer ; Mittelwerte für Gewicht (179,8 kg), Körperlänge (1,72 m), BMI (60,7 kg/m2)Übergewicht (117,1 kg)mit einem laparoskopischen Schlauchmagenbildung behandelt. Die Ausgangssituation war zwischen den Gruppen nicht verschieden (Pearson). Bei 106 der Patienten war ein BPD-DS geplant, der in zwei Schritten erfolgen sollte. 6 Patienten hatten bereits vorher ein Magenband. In der Gruppe A (n=25) erfolgte keine Kalibration des Schlauches mit Hilfe einer Sonde. In Gruppe B (n=32) wurde eine 44 French und in Gruppe C (n=63) eine 33 French im Durchmesser starke Sonde zur Kalibration eingesetzt.
Ergebnisse: Intraoperativ wurden durch Volumenmessung über die Sonde die Schlauchvolumina mit einer hohen Varianz gemessen (A: 149,0 ml, SD: 15,2; B:117,4 ml, SD:34,8; C: 78,3 ml,SD: 17,9). Die Unterschiede waren statistisch signifikant (p<0,01; eta2=0,61). Besonders deutlich waren die Unterschiede im resezierten Magenvolumen (A:490,2 ml; B 732,7 ml; C:1156,1 ml). Da statistisch keine Abhängigkeit zwischen BMI und Magenvolumen nachgewiesen w erden konnte, zeigt sich die Ungenauigkeit der Schlauchmagenmessung gegenüber der Messung des resezierten Magenvolumens. Ergebnisse der Gewichtsreduktion zeigen eine Abhängigkeit von der Kalibration des Magenschlauches und des resezierten Magen-Volumens. Der Gewichtsverlust beträgt im Gesamtpatientengut und zeigt ab dem 3. Postoperativen Jahr eine Tendenz zum Wiederanstieg des Gewichtes. Eine unterlassene Kalibration und ein Volumen von weniger als 500 cm3 für den entfernten Magen sind mit einem Gewichtsanstieg spätestens nach 2- 3 Jahre verbunden. Der Verlust von 20 BMI-Punkten wird nach 2 Jahren erreicht.
Schlussfolgerung: Die Schlauchmagenbildung ist ein restriktives Verfahren, dass bei einer Kalibration eines engen Magenschlauches (32 French) und einem resezierten Magenvolumen von mindestens 500 eine sehr gute Gewichtsreduktion erzielt, die sich bei dem EWL zwischen de Ergebnissen des Magenbandes und des Magenbypass bewegt. Durch Anpassung der Ernährungsgewohnheiten kann es wie bei allen pur restriktiven Verfahren zu einem Wiederanstieg des Körpergewichtes.
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Über 4 Millionen Menschen leben in Deutschland schätzungsweise mit chronischen Wunden. Aufgrund der demographischen Entwicklung unserer Gesellschaft ist mit einem weiteren Anstieg der zu nicht, oder nur zögerlich heilenden Wunden führenden Erkrankungen diabetisches Fußsyndrom, chronisch venöse Insuffizienz und pAVK auszugehen. Dennoch ist die moderne hydroaktive Wundbehandlung in Deutschland nicht flächendeckend etabliert. Gründe hierfür liegen unter anderem in dem unüberschaubaren Produktsortiment, der unzureichenden Vergütung vor allem im ambulanten Versorgungssektor und in der mangelhaften ärztlichen Ausbildung in Bezug auf Wundtherapie. Ein standardisiertes Wundbehandlungsschema erleichtert die stadiengerechte Anwendung moderner Wundauflagen und dient als nachvollziehbare Entscheidungsgrundlage in der Auswahl der erforderlichen Wundprodukte. Material und Methoden: Anhand eines Bogens werden vier Kriterien (Wundstadium, Wundexsudation, Wundtiefe und Wundinfektion) zur Beurteilung einer Wunde erfasst. Die fotographische Abbildung der verschiedenen Wundstadien erlaubt eine sichere visuelle Zuordnung durch den Therapeuten. Nach Analyse dieser S.E.T.I. Kriterien ergibt sich eine eindeutige stadiengerechte Produktzuordnung, die auch dem weniger geübten eine sichere Anwendung der verschiedenen Produktgruppen ermöglicht. Ergebnisse: Dieser Behandlungsstandard wurde zwischenzeitlich an 3 Kliniken der Maximalversorgung und in einem integrierten Versorgungsmodell zum diabetischen Fußsyndrom etabliert und stellt einen Bestandteil für ein weiteres IV Modell zur pAVK dar. Neben ökonomischen Vorteilen (reduzierte Lagerhaltungskosten, Straffung des Produktsortiments, günstigere Bezugskonditionen) lässt sich eine Verbesserung in der Behandlungsqualität, eine verkürzte stationäre Behandlungsdauer sowie eine vereinfachte Umsetzung einer sektorenübergreifenden Wundversorgung erzielen. Schlussfolgerung: Die Anwendung eines Therapiestandards für die stadiengerechte Behandlung chronischer Wunden ermöglicht eine Anwenderunabhängige gleich bleibend hohe Qualität sowie eine wesentlich vereinfachte Orientierung in dem Produktsortiment. Hierdurch wird weiterhin ein Beitrag zur Schnittstellenoptimierung zwischen dem stationären und ambulanten Versorgungssektor bei chronischen Wunden geleistet. Ein verbindlicher interdisziplinärer und interprofessioneller Wundbehandlungsstandard stellt eine unverzichtbare Qualitätssicherungsmaßnahme in der Wundbehandlung dar.
Einleitung: Am 16.12.06 wurde im Eurotransplant-Gebiet der MELD-Score (MELD) als Allokationsbasis zur Lebertransplantation (OLT) eingeführt. Ziel ist eine Reduktion der Sterblichkeit auf der Warteliste. Material und Methoden: 100 Patienten wurden in die prospektive Analyse der MELD-Allokation vom 16.12.06 bis 15.09.07 einbezogen. Ergebnisse: Aktuell warten 68 Pat., 28 Pat. wurden transplantiert, 4 Pat. sind auf der Warteliste (WL) verstorben (4%). Der mittlere MELD auf der WL beträgt 17,2 +/- 5,2 (7-28). Bei 12 Pat. liegt eine Standard-exception (SE) (n=10 HCC, n=2 metabolische Erkrankung) mit einem Match-MELD von 25,6 +/-2,06 vor (24-28). Die Todesursachen der vier auf der WL verstorbenen Pat. waren eine akute Varizenblutung (MELD 9), zwei kardiale Versagen (MELD 13, 18) und eine MRSA-Sepsis (MELD 29, NT-Status). Die 28 transplantierten Pat. hatte zum Zeitpunkt der Transplantation einen mittleren MELD von 27,66 +/- 5,1 Punkten (21 bis 40). 20 Pat. wurden aufgrund des Labor-MELD (28,4 +/- 5,3, 24-40) transplantiert, wobei 7 Pat. einen MELD über 30 aufwiesen. Die Wartezeit lag bei 11,55 +/- 5,3 Tagen. 8 Pat. erhielten bei SE bei HCC (MELD 24 +/- 0, 24) ein Organ nach einer Wartezeit von 320 +/- 9,7 Tagen. Aktuell leben 23 der 28 transplantierten Pat. Bei zwei verstorbenen Pat. war die Todesursache ein kardiales Versagen, bei zwei Patienten eine primäre Non-Funktion sowie ein septisches Multiorganversagen. Schlussfolgerung: Während der ersten Monate der MELD Allokation lag die Letalität auf der WL in unserem Zentrum bei 4%. Patienten mit einem mittleren MELD über 27 erhielten Organangebote und konnten nach kurzer Wartezeit transplantiert werden.
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Konventionelle Ösophagusresektionen gehen auch heute noch mit einer hohe Morbidität und Mortalität einher. Die Ergebnisse einiger Serien minimal-invasiver Ösophagusresektionen sind vielversprechend, aber kontrovers diskutiert. Material und Methoden: Im Rahmen einer Beobachtungsstudie werden seit Mai 2005 minimal-invasive thorakoabdominelle Ösophagektomien mit cervikalem Magenhochzug durchgeführt. Die operativen Parameter und der postoperative Verlauf werden prospektiv erfasst und jetzt retrospektiv ausgewertet. Ergebnisse: Seit Mai 2005 wurden 28 Patienten minimal-invasive ösophagektomiert, 3 transhiatal und 25 thorakoabdominell. Indikation waren Plattenepithelkarzinome bei 14 und distale Adenokarzinome bei 13 Patienten, bei einem Patienten eine langstreckige benigne Stenose. Die Tumorstadien waren UICC-IIa in 7, UICC-2b in 2 und UICC-III in 18 Patienten. 11 Patienten (41%) wurden neoadjuvant vorbehandelt. Die OP-Zeit betrug im Mittel 296 Min. +/- 46 Min., der intraoperative Blutverlust 110 ml +/- 131 ml. Ein abdomineller Operationsabschnitt wurde konvertiert (4%), thorakal war bisher keine Konversion notwendig. R-0 Resektionen wurde in 26/27 Patienten (96%) erzielt, die mittlere Anzahl entfernter Lymphknoten betrug 19. Die 30-Tage –Letalität war 0, die Krankenhausletalität 11%. Die Morbidität betrug 54% und beinhaltet 7 Anastomoseninsuffizienzen, 2 „Ösophago“-tracheale Fisteln, 1 Hiatushernie, 2 Recurrensparesen, 2 Pneumonien und 1 beatmungspflichtiges Delir. Drei Patienten (11%) wurden operativ revidiert (eine Fistel, eine Anastomoseninsuffizienz bei Magenschlauchnekrose, eine Hiatushernie). Schlussfolgerung: Nach Einführung der minimal-invasiven thorakoabdominellen Ösophagektomie werden die exzellenten Ergebnisse anderer minimal-invasiver Serien bisher nicht erreicht, entsprechen aber im Wesentlichen den Ergebnissen der konventionellen Technik. Abzuwarten bleibt, ob die Ergebnisse nach weiterer Abflachung der Lernkurve Verbesserungen aufweisen werden.
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Die Resektion von Lebermetastasen kolorektaler Karzinome stellt die einzige potentiell kurative Behandlungsoption dar. Wirksame Chemotherapeutika wie Oxaliplatin und Irinotecan sind in den Verdacht geraten durch histologische Veränderungen an der Leber das Resektionsausmass oder das Outcome von vorbehandelten Patienten zu gefährden.Die vorliegende Studie untersucht daher den Grad der Steatohepatitis bei Patienten mit kolorektalen Lebermetastasen in Abhängigkeit von der Chemotherapie. Material und Methoden: In einem Kollektiv von 100 konsekutiven Patienten (08/2002 bis 02/2006) (chemonaiv: n=32, 62,4 +/- 13,3 Jahre; neoadjuvante Chemotherapie: n=39, 62 +/- 10,2 Jahre und adjuvante Chemotherapie: n=29, 61,2 +/- 10,8 Jahre) wurde aus den intraoperativ gewonnenen Leberresektaten retrospektiv der NAFLD-Score nach Kleiner et al. (Hepatology 2005) erhoben. Zur morphologischen Beurteilung wurde die Hämatoxilin-Eosin-Färbung verwendet, während der Fibrosegrad anhand der Ladewig-Färbung und der Siderosegrad mittels der Berliner-Blau-Färbung bestimmt wurden.Anschließend erfolgte eine statische Analyse der Häufigkeit und Relevanz der Steatohepatitis in den einzelnen Gruppen im Hinblick auf Verlauf und Outcome der Leberresektion. Hierbei wurden multivariate Regression, Kruskal-Wallis-Test, chi2-Test oder Mann-Whitney-U-Test (p<0,05) verwendet. Ergebnisse: Im vorliegenden Patientengut zeigten 7 Patienten eine ausgeprägte NASH, während bei 69% der Patienten keinerlei Veränderungen im Sinne einer NASH vorlagen. Die subjektive Gesamtbeurteilung der Pathologen und der errechnete NASH-Score eine Übereinstimmung in 92%. (Cohen´s kappa 0,82; 95%-Konfidenzintervall [0,71-0,93]). Hinsichtlich des NASH-Score (p=0,462) oder seiner Komponenten konnten keine Unterschiede in Abhängigkeit vom Zeitpunkt der Chemotherapie (Chemonaiv/ neoadjuvant/ adjuvant) gefunden werden. Eine Analyse in Abhängigkeit der verwendeten Chemotherapeutika zeigte keine Unterschiede für den Gesamt-Score (p=0,897), jedoch signifikante Unterschiede für einzelne Komponenten: Portale Entzündung (p=0,045) und Vorliegen von Microgranulomen (p<0,001). Auch eine multivariate Analyse konnte weder den Einfluss von Substanz noch Zeitpunkt der Chemotherapie auf die Entwicklung einer NASH (p zwischen 0,35 und 0,92) nachweisen.Die Analyse des perioperativen Verlaufs (Transfusionsbedarf, Radikalität, Komplikationen, Liegedauer, postoperative Leberfunktion, Krankenhausmortalität) ergab keine signifikanten Unterschiede für Patienten mit oder ohne NASH. Schlussfolgerung: Das Vorliegen einer Steatohepatitis in unserem Patientengut war eine seltene Diagnose, die nicht in Zusammenhang mit Zeitpunkt der Chemotherapie oder verwendetem Chemotherapeutikum stand. Selbst das Vorliegen einer NASH scheint keinen relevanten Einfluss auf den perioperativen Verlauf oder das Outcome nach Leberresektion zu haben.
Nucleation experiments starting from the reaction of OH radicals with SO2 have been performed in the IfT-LFT flow tube under atmospheric conditions at 293±0.5 K for a relative humidity of 13–61%. The presence of different additives (H2, CO, 1,3,5-trimethylbenzene) for adjusting the OH radical concentration and resulting OH levels in the range (4–300) ×105 molecule cm -3 did not influence the nucleation process itself. The number of detected particles as well as the threshold H2SO4 concentration needed for nucleation was found to be strongly dependent on the counting efficiency of the used counting devices. High-sensitivity particle counters allowed the measurement of freshly nucleated particles with diameters down to about 1.5 nm. A parameterization of the experimental data was developed using power law equations for H2SO4 and H2O vapour. The exponent for H2SO4 from different measurement series was in the range of 1.7–2.1 being in good agreement with those arising from analysis of nucleation events in the atmosphere. For increasing relative humidity, an increase of the particle number was observed. The exponent for H2O vapour was found to be 3.1 representing an upper limit. Addition of 1.2×1011 molecule cm -3 or 1.2×1012 molecule cm -3 of NH3 (range of atmospheric NH3 peak concentrations) revealed that NH3 has a measureable, promoting effect on the nucleation rate under these conditions. The promoting effect was found to be more pronounced for relatively dry conditions, i.e. a rise of the particle number by 1–2 orders of magnitude at RH = 13% and only by a factor of 2–5 at RH = 47% (NH3 addition: 1.2×1012 molecule cm -3). Using the amine tert-butylamine instead of NH3, the enhancing impact of the base for nucleation and particle growth appears to be stronger. Tert-butylamine addition of about 1010 molecule cm -3 at RH = 13% enhances particle formation by about two orders of magnitude, while for NH3 only a small or negligible effect on nucleation in this range of concentration appeared. This suggests that amines can strongly influence atmospheric H2SO4-H2O nucleation and are probably promising candidates for explaining existing discrepancies between theory and observations.
We report the first measurements of 1,1,1,2,3,3,3-heptafluoropropane (HFC-227ea), a substitute for ozone depleting compounds, in remote regions of the atmosphere and present evidence for its rapid growth. Observed mixing ratios ranged from below 0.01 ppt in deep firn air to 0.59 ppt in the northern mid-latitudinal upper troposphere. Firn air samples collected in Greenland were used to reconstruct a history of atmospheric abundance. Year-on-year increases were deduced, with acceleration in the growth rate from 0.026 ppt per year in 2000 to 0.057 ppt per year in 2007. Upper tropospheric air samples provide evidence for a continuing growth until late 2009. Fur- thermore we calculated a stratospheric lifetime of 370 years from measurements of air samples collected on board high altitude aircraft and balloons. Emission estimates were determined from the reconstructed atmospheric trend and suggest that current "bottom-up" estimates of global emissions for 2005 are too high by more than a factor of three.
We report the first measurements of 1,1,1,2,3,3,3-heptafluoropropane (HFC-227ea), a substitute for ozone depleting compounds, in air samples originating from remote regions of the atmosphere and present evidence for its accelerating growth. Observed mixing ratios ranged from below 0.01 ppt in deep firn air to 0.59 ppt in the current northern mid-latitudinal upper troposphere. Firn air samples collected in Greenland were used to reconstruct a history of atmospheric abundance. Year-on-year increases were deduced, with acceleration in the growth rate from 0.029 ppt per year in 2000 to 0.056 ppt per year in 2007. Upper tropospheric air samples provide evidence for a continuing growth until late 2009. Furthermore we calculated a stratospheric lifetime of 370 years from measurements of air samples collected on board high altitude aircraft and balloons. Emission estimates were determined from the reconstructed atmospheric trend and suggest that current "bottom-up" estimates of global emissions for 2005 are too high by a factor of three.
Das Modifizierte Vacciniavirus Ankara (MVA) entstand nach mehr als 500 Passagen des Chorioallantois Vacciniavirus Ankara (CVA) auf Hühnerembryofibroblasten. Mit der Passagierung ging u.a. der Verlust zahlreicher Vacciniavirus Virulenzfaktoren einher, wodurch MVA einen hochattenuierten Phänotyp aufweist. Bei mangelnder Pathogenität für humane Organismen verfügt das MVA jedoch über eine vollständig erhaltene Genexpression inklusive integrierter Fremdgene. Hierdurch bedingt ist MVA ein vielversprechender Kandidat nicht nur als Pockenimpfstoff der dritten Generation, sondern auch als Vektorvakzine gegen zahlreiche Infektionskrankheiten sowie in der Tumor-assoziierten Immunotherapie. Ein wesentliches Charakteristikum der Attenuierung von MVA ist seine fehlende Replikationsfähigkeit in humanen Zellen. Bislang ist es jedoch noch nicht möglich gewesen, die hierfür verantwortlichen genetischen Veränderungen eindeutig zuzuordnen. Vorangegangene Arbeiten wiesen darauf hin, dass sich der beschriebene Effekt zumindest teilweise auf die Zeitspanne zwischen zwei Vorläufern des MVA eingrenzen lässt. So zeigten sich humane HeLa Zellen für das CVA 152 permissiv, während gegenüber dem CVA 386 nur noch eine Semipermissivität bestand. Mit Hilfe einer vergleichenden Sequenzanalyse von CVA 152 und CVA 386 konnten verschiedene Deletionen identifiziert werden, deren Auftreten potentiell verantwortlich für den veränderten Phänotyp von CVA 386 ist. In diesem Zusammenhang wurden im Rahmen dieser Arbeit die Gene C12L, C14L, C15L und C16L der Deletion I und die Gene M1L, M2L und der OLR 037 der Deletion II charakterisiert. Durch Transfektion von Expressionsplasmiden wurden die entsprechenden Proteine bezüglich ihrer Expression und posttranslationalen Modifikation, sowie ihrer subzellulären Verteilung untersucht. So ließ sich für das Protein M2 eine posttranslationale N-Glykosylierung und die Lokalisation innerhalb des trans-medialen Golgiapparats nachweisen. Zusätzlich konnte eine Sekretion des M2 Proteins im Zellüberstand transfizierter 293T-Zellen gezeigt, sowie die bereits publizierte Inhibition der NF-:B-Aktivierung durch extrazellulär zugegebenes M2 Protein eingeleitet werden. Die Proteine C14 und C15 zeigten sich in der Laserscanmikroskopie mitochondrial lokalisiert; C16 dagegen kolokalisierte neben einer hauptsächlich intranukleären Verteilung zusätzlich mit F-Aktin. Ferner ergaben sich für die Proteine C14 und C15 erste Hinweise auf eine inhibitorische Funktion gegenüber Staurosporin-induzierter Apoptose.
A comprehensive evaluation of seasonal backward trajectories initialized in the northern hemisphere lowermost stratosphere (LMS) has been performed to investigate the factors that determine the temporal and spatial structure of troposphere-to-stratosphere-transport (TST) and it’s impact on the LMS. In particular we explain the fundamental role of the transit time since last TST (tTST) for the chemical composition of the LMS. According to our results the structure of the LMS can be characterized by a layer with tTST<40 days forming a narrow band around the local tropopause. This layer extends about 30K above the local dynamical tropopause, corresponding to the extratropical tropopause transition layer (ExTL) as identified by CO. The LMS beyond this layer shows a relatively well defined separation as marked by an aprupt transition to longer tTST indicating less frequent mixing and a smaller fraction of tropospheric air. Thus the LMS constitutes a region of two well defined regimes of tropospheric influence. These can be characterized mainly by different transport times from the troposphere and different fractions of tropospheric air. Carbon monoxide (CO) mirrors this structure of tTST due to it’s finite lifetime on the order of three months. Water vapour isopleths, on the other hand, do not uniquely indicate TST and are independent of tTST, but are determined by the Lagrangian Cold Point (LCP) of air parcels. Most of the backward trajectories from the LMS experienced their LCP in the tropics and sub-tropics, and TST often occurs 20 days after trajectories have encountered their LCP. Therefore, ExTL properties deduced from CO and H2O provide totally different informations on transport and particular TST for the LMS.
Two different single particle mass spectrometers were operated in parallel at the Swiss High Alpine Research Station Jungfraujoch (JFJ, 3580 m a.s.l.) during the Cloud and Aerosol Characterization Experiment (CLACE 6) in February and March 2007. During mixed phase cloud events ice crystals from 5–20 micro m were separated from larger ice aggregates, non-activated, interstitial aerosol particles and supercooled droplets using an Ice-Counterflow Virtual Impactor (Ice-CVI). During one cloud period supercooled droplets were additionally sampled and analyzed by changing the Ice-CVI setup. The small ice particles and droplets were evaporated by injection into dry air inside the Ice-CVI. The resulting ice and droplet residues (IR and DR) were analyzed for size and composition by the two single particle mass spectrometers: a custom-built Single Particle Laser-Ablation Time-of-Flight Mass Spectrometer (SPLAT) and a commercial Aerosol Time-of-Flight Mass Spectrometer (ATOFMS, TSI Model 3800). During CLACE 6 the SPLAT instrument characterized 355 individual IR that produced a mass spectrum for at least one polarity and the ATOFMS measured 152 IR. The mass spectra were binned in classes, based on the combination of dominating substances, such as mineral dust, sulfate, potassium and elemental carbon or organic material. The derived chemical information from the ice residues is compared to the JFJ ambient aerosol that was sampled while the measurement station was out of clouds (several thousand particles analyzed by SPLAT and ATOFMS) and to the composition of the residues of supercooled cloud droplets (SPLAT: 162 cloud droplet residues analyzed, ATOFMS: 1094). The measurements showed that mineral dust was strongly enhanced in the ice particle residues. Close to all of the SPLAT spectra from ice residues did contain signatures from mineral compounds, albeit connected with varying amounts of soluble compounds. Similarly, close to all of the ATOFMS IR spectra show a mineral or metallic component. Pure sulfate and nitrate containing particles were depleted in the ice residues. Sulfate and nitrate was found to dominate the droplet residues (~90% of the particles). The results from the two different single particle mass spectrometers were generally in agreement. Differences in the results originate from several causes, such as the different wavelength of the desorption and ionisation lasers and different size-dependent particle detection efficiencies.
Background: The integration of the non-cross-resistant chemotherapeutic agents capecitabine and vinorelbine into an intensified dose-dense sequential anthracycline- and taxane-containing regimen in high-risk early breast cancer (EBC) could improve efficacy, but this combination was not examined in this context so far. Methods: Patients with stage II/IIIA EBC (four or more positive lymph nodes) received post-operative intensified dose-dense sequential epirubicin (150mg/m2 every 2 weeks) and paclitaxel (225mg/m2 every 2 weeks) with filgrastim and darbepoetin alfa, followed by capecitabine alone (dose levels 1 and 3) or with vinorelbine (dose levels 2 and 4). Capecitabine was given on days 1-14 every 21 days at 1000 or 1250 mg/m2 twice daily (dose levels 1/2 and 3/4, respectively). Vinorelbine 25 mg/m2 was given on days 1 and 8 of each 21-day course (dose levels 2 and 4). Results: Fifty-one patients were treated. There was one dose-limiting toxicity (DLT) at dose level 1. At dose level 2 (capecitabine and vinorelbine), five of 10 patients experienced DLTs. Therefore evaluation of vinorelbine was abandoned and dose level 3 (capecitabine monotherapy) was expanded. Hand-foot syndrome and diarrhoea were dose limiting with capecitabine 1250 mg/m2 twice daily. At 35.2 months' median follow-up, the estimated 3-year relapse-free and overall survival rates were 82% and 91%, respectively. Administration of capecitabine monotherapy after sequential dose-dense epirubicin and paclitaxel is feasible in node-positive EBC, while the combination of capecitabine and vinorelbine as used here caused more DLTs. Trial registration: Current Controlled Trials ISRCTN38983527.
Background: European robins, Erithacus rubecula, show two types of directional responses to the magnetic field: (1) compass orientation that is based on radical pair processes and lateralized in favor of the right eye and (2) so-called 'fixed direction' responses that originate in the magnetite-based receptors in the upper beak. Both responses are light-dependent. Lateralization of the 'fixed direction' responses would suggest an interaction between the two magnetoreception systems. Results: Robins were tested with either the right or the left eye covered or with both eyes uncovered for their orientation under different light conditions. With 502 nm turquoise light, the birds showed normal compass orientation, whereas they displayed an easterly 'fixed direction' response under a combination of 502 nm turquoise with 590 nm yellow light. Monocularly right-eyed birds with their left eye covered were oriented just as they were binocularly as controls: under turquoise in their northerly migratory direction, under turquoise-and-yellow towards east. The response of monocularly left-eyed birds differed: under turquoise light, they were disoriented, reflecting a lateralization of the magnetic compass system in favor of the right eye, whereas they continued to head eastward under turquoise-and-yellow light. Conclusion: 'Fixed direction' responses are not lateralized. Hence the interactions between the magnetite-receptors in the beak and the visual system do not seem to involve the magnetoreception system based on radical pair processes, but rather other, non-lateralized components of the visual system.
Rezension zu: Gaye Suse Kromer: Obszöne Lust oder etablierte Unterhaltung? Zur Rezeption pornografischer Filme. Hamburg: Diplomica Verlag 2008. 232 Seiten, ISBN 978-3-8366-6730-2, € 39,50 Die Autorin befragte vier Männer und vier Frauen zu ihrer Pornografienutzung und ihren Rezeptionserfahrungen mit dem pornografischen Film Adrenalin (Italien 2003). Selbst nach Maßstäben einer Qualifikationsarbeit überzeugen die Überblickskapitel zu Rechtsgrundlagen, Definition und Geschichte des pornografischen Films, zur theoretischen und fachlichen Verortung nicht; diese werden später auch nicht auf die Interviews bezogen. Den Hauptteil stellen die Interviews dar. Der Autorin gelingt es nur teilweise – so bei der Entwicklung der Leitfragen –, stringente Kategorien für die Auswertung der qualitativen Interviews zu entwickeln. Die im Anhang des Buches abgedruckten Interviews stellen eine interessante Quelle für die Erforschung der Rezeption pornografischer Filme dar.
Im Rahmen der vorliegenden Arbeit wurde eine allgemein anwendbare Methode zur Identifizierung und Quantifizierung kleiner Moleküle mittels MALDI-TOF-MS entwickelt. Dabei wurden zahlreiche Analyten, wie unterschiedliche Arzneistoffe, Neurotransmitter und Lebensmittelinhaltsstoffe in verschiedenen Probenmatrizes analysiert. Bei den verwendeten Matrizes wurden mit a-Cyano-4-Hydroxy-Zimtsäure (CHCA) die besten Ergebnisse erzielt. Es zeigte sich jedoch, dass die Probenpräparation wichtiger war als die Wahl der Matrix, da auch mit anderen Matrizes bei optimierter Probenpräparation sensitive Messungen im niedrigen Massenbereich möglich waren. Insbesondere eine schnelle Trocknung des Probenspots, und damit verbunden die Bildung kleiner Kristalle, ist für die Analytik kleiner Moleküle hilfreich. Bei gleichzeitiger Verwendung geringer Matrixkonzentrationen und geringer Laserintensität konnte so der störende Matrixhintergrund minimiert werden. Eine noch stärkere Suppression der Matrixsignale bei gleichzeitiger Anreicherung der Analyten auf dem Probenspot konnte durch eine Dünnschichtpräparation (TLP) mit CHCA und Nitrozellulose erreicht werden. Allerdings war die TLP für eine automatische Quantifizierung kleiner Moleküle nur bedingt geeignet. Die für kleine Moleküle so wichtige Quantifizierung war durch Verwendung einer optimierten schnell trocknenden Dried Droplet Präparation (DDP) möglich. Die Kombination dieser optimierten DDP mit ausreichend aufsummierten Einzelschussspektren bei gleichzeitiger Verwendung eines internen Standards (IS) ermöglichte eine valide Quantifizierung mit guter Präzision, Linearität und Richtigkeit. Dabei erfüllten die quantifizierten Analyten die Vorgaben der FDA für Präzision und Richtigkeit. Diese Quantifizierungsmethode wurde an Mischungen unterschiedlicher Arzneistoffe, sowohl in Standardlösungen als auch in humanem Plasma, erfolgreich durchgeführt. Dabei genügte ein einziger interner Standard, um alle Arzneistoffe der Mischung schnell und sensitiv zu bestimmen (Bestimmungsgrenze 1-5 ng/ml). Weiterhin war es möglich, den Wirkstoff einer pharmazeutischen Tablette ohne aufwändige Probenvorbereitung schnell und genau zu bestimmen. Dass MALDI über eine hohe Salztoleranz verfügt, wurde bei der Bestimmung von Acetylcholin (ACh) und Cholin (Ch) in Mikrodialysaten bestätigt. Trotz des hohen Salzgehalts der Proben (~150 mM) war eine direkte Messung ohne vorherige Aufarbeitung möglich. Dabei lag die Nachweis- und Bestimmungsgrenze für ACh bei 0,3 bzw. 1 fmol/µl und für Ch bei 20 bzw. 100 fmol/µl. Nach den Standardlösungen wurden in-vivo Mikrodialysate aus dem rechten Striatum verschiedener CD1-Mäuse quantifiziert. Durch Verbindung der Dialysesonde mit einem MALDI-Spotter konnte außerdem die zeitliche Auflösung der Dialyse deutlich verbessert werden. Ein weiterer Anwendungsbereich stellte die Bestimmung von Melamin in Milch und Milchpulver dar. Nach einfacher Probenvorbereitung war es möglich, Melamin mit einer Bestimmungsgrenze von 0,25 ppm in Milchpulver bzw. 0,625 ppm in Milch direkt und schnell zu quantifizieren. Damit wurden die geforderten Grenzwerte von 1 ppm für Babynahrung bzw. 2,5 ppm für übrige Lebensmittel leicht erreicht. Als letzte Methode wurden verschiedene Inhaltstoffe in Energy Drinks bestimmt. Bei Verwendung von Theophyllin als IS konnte so neben Koffein auch Niacin und Pyridoxin erfolgreich und ohne Probenvorbereitung schnell quantifiziert werden. Zusammenfassend zeigt diese Arbeit, dass MALDI auch für die Analytik kleiner Moleküle gut geeignet ist. Neben der Identifizierung der Analyten war auch die Quantifizierung mit guter Linearität, Reproduzierbarkeit und Richtigkeit möglich. Dabei konnten mit der Standardmatrix CHCA verschiedenste niedermolekulare Analyten in unterschiedlichsten Probenmatrizes bestimmt werden. Im direkten Vergleich war die Sensitivität der vorgestellten MALDI-Methoden mindestens vergleichbar, wenn nicht gar besser als bestehende LC-MS-Methoden. Da auf den Einsatz einer LC verzichtet werden kann, ermöglich MALDI einen sehr viel höheren Probendurchsatz. Zudem war keine spezielle Matrix, besondere Geräte oder zeitaufwändige Probenvorbereitung und Präparation notwendig.
In der Arbeit wird Fuzzy-Regression als mögliche ökonometrische Analysemethode bei fehlerbehafteten Daten modelliert und erprobt. Dazu ist die interpretatorische Lücke zu schließen, die einerseits zwischen den Datenproblemen in empirischen Datensätzen und ihrer Modellierung als Fuzzy-Daten und andererseits zwischen der Modellierung der Fehlereinflüsse in den Fuzzy-Daten und den Aussagen und Analysen besteht, die auf der Basis einer Fuzzy-Regression über die vorliegenden Daten getroffen werden können. Da bereits eine Vielzahl von Ansätzen zur Fuzzy-Regression entwickelt wurden, wird als das Hauptproblem nicht die Modellierung der Fuzzy-Methoden als solcher gesehen, sondern vielmehr die fehlende Vorstellung über die mögliche Bedeutung der Fuzzy-Modellierungen im konkreten Anwendungsfall. Die Arbeit vollzieht deshalb im Sinne einer Machbarkeitsstudie die verschiedenen Schritte von den Fehlereinflüssen in wirtschaftsbezogenen Datensätzen und deren Modellierung als Fuzzy-Daten bis hin zur explorativen Analyse mit Fuzzy-Regression nach. Dabei werden für jeden der Schritte exemplarische Beispiele ausgewählt, um die Denkweise der Fuzzy-Modellierung auszuarbeiten und die Möglichkeiten und Grenzen der Methoden aufzuzeigen. Die Untersuchungen zeigen, dass vor allem die Fuzzy-Modellierung von Fehlereinflüssen in den Merkmalsdaten und die Beschreibung von gleichförmigen Strukturen in den Fehlereinflüssen durch Fehlerszenarien als Analyseinstrumente geeignet sind, da sie eine Grundlage für eine weitergehende Untersuchung der Fehlereinflüsse bilden. Als Ausblick auf ein Schätzmodell für Fuzzy-Regression bei Fehlern in den Daten werden abschließend einige Ansätze für die Einbettung des Regressionsproblems für Fuzzy-Merkmalsvariablen in die Verteilungsmodelle für Fuzzy-Zufallsvariablen vorgestellt, die auf der Konstruktion der Fehlerszenarien basieren.
Innerhalb der letzten 30 Jahre haben sich photoaktivierbare Verbindungen („caged compounds“) zu einem äußerst wertvollen Werkzeug entwickelt. Seit der erstmals publizierten Anwendung von lichtaktivierbarem ATP im Jahre 1978 durch Hoffman et al. konnten viele neue Erkenntnisse im Bereich der Physiologie, Molekularbiologie und Biochemie mit Hilfe von photoaktivierbaren Verbindungen gewonnen werden. Hierunter versteht man Substanzen, deren biologische Wirksamkeit temporär inaktiviert ist, jedoch durch Bestrahlung mit Licht wiederhergestellt werden kann. Die Inaktivierung wird durch spezielle, lichtreaktive Chromophore erreicht, sogenannten photolabilen Schutzgruppen („cages“). Der Einsatz dieser Technik zur Aktivierung von Nukleinsäuren eröffnet ein weites Feld an Anwendungsmöglichkeiten. So ist auf diese Weise eine orts- und zeitaufgelöste Kontrolle der Aktivität von z.B. Antisense-DNA, siRNA oder Aptameren durch Licht möglich. Während der vorliegenden Doktorarbeit konnten zwei neuartige photolabil geschützte Desoxythymidine als Phosphoramidite zum Einsatz in der automatisierten DNA-Synthese dargestellt werden. Hierfür wurden jeweils NDBF-OH bzw. pHP-OH in O4-Position der Nukleobase eingeführt. Es konnte gezeigt werden, dass sich die beiden Nukleoside nach ihrem Einbau in DNA mittels UV-Licht entschützen lassen. Die photolabilen Schutzgruppen besaßen jedoch nur eine geringe chemische Stabilität unter verschiedenen basischen Abspaltbedingungen und sind deshalb nicht für die automatisierte DNA-Festphasensynthese unter Standardbedingungen geeignet. Durch Homologisierung der NDBF-Gruppe mit einer zusätzlichen Methyleneinheit zu hNDBF-OH wurde eine verbesserte Variante synthetisiert, welche eine ausreichende Basenstabilität und hervorragende photochemische Eigenschaften aufweist. Wie im Arbeitskreis Heckel gezeigt werden konnte, ist mittels in O6-Position hNDBF-modifiziertem Desoxyguanosin sowohl die DNA-Festphasensynthese unter Standardbedingungen möglich, als auch die spätere Photolyse dieser Schutzgruppe bei einer Wellenlänge von 420 nm. Hierdurch eröffnet sich zum ersten Mal die Möglichkeit, bei Verwendung von beispielsweise NPP und hNDBF, photolabil geschützte Bereiche in Nukleinsäuren wellenlängenselektiv durch Licht unterschiedlicher Wellenlänge zu aktivieren. In einem weiteren Projekt wurden erfolgreich photoaktivierbare Varianten des bivalenten Fusionsaptamers HD1-22 getestet. HD1-22 besitzt zwei Aptamerdomänen, HD1 und HD22, welche jeweils an eine der beiden Exosites I bzw. II von Thrombin binden. Im konkreten Fall konnten wir die Blutgerinnungsaktivität von Thrombin unter Verwendung einer photolabil geschützten Aptamersequenz von vollständig aktiv zu komplett inaktiv modulieren: Vor der UV-Bestrahlung war lediglich die Exosite II durch die HD22-Domäne blockiert. Dies erlaubte keinerlei Bindung des natürlichen Antikoagulans Antithrombin III an Thrombin – weder durch Heparin vermittelt noch ohne Beteiligung von Heparin. Der Zugang zur Exosite I war hingegen nicht eingeschränkt, die Blutgerinnungsaktivität des Thrombins somit durch die Rekrutierung von Fibrinogen an die Exosite I vollständig aktiv und nicht durch Antithrombin inhibierbar. Durch lichtvermittelte Entschützung der HD1-Domäne konnte nun eine Inaktivierung der Exosite I erfolgen, welche durch die hohe Bindungsaffinität der HD22-Aptamerdomäne stärker ausfiel als bei der ausschließlichen Verwendung eines HD1 Aptamers. Die koagulative Wirkung des Thrombins wurde somit vollständig aufgehoben. Im dritten Teil dieser Arbeit wurde der Grundstein für die Entwicklung eines kovalenten, lichtaktivierbaren Thrombin-Thrombinaptamer-Reagenzes gelegt. Dieses könnte zur gezielten Thromboembolisierung bei bestimmten malignen Tumorerkrankungen eingesetzt werden, um das entartete Gewebe von der Blut- und damit Nährstoffversorgung abzuschneiden. Zudem könnte so möglicherweise während einer Tumorexzision die Freisetzung von metastasierenden Krebszellen unterbunden werden. Das Reagenz besteht aus der von Heckel et al. publizierten „ausschaltbaren“ Variante des HD1-Aptamers. Diese besitzt einen photolabil geschützten Gegenstrang. Solange die Schutzgruppe intakt ist, bindet das Aptamer an die Exosite I von Thrombin und verhindert auf diese Weise die Rekrutierung von Fibrinogen. Wird die Sequenz jedoch mit UV-Licht bestrahlt, so erfolgt die Entschützung des Gegenstrangs und durch die folgende Basenpaarung eine Inaktivierung des HD1 Aptamers. Hieraus resultiert die Freisetzung von aktivem Thrombin, welches direkt zur Ausbildung eines Thrombus führt. Durch die – ebenfalls photospaltbare – kovalente Anbindung des „ausschaltbaren“ HD1 an die Proteinoberfläche werden eine vorzeitige Dissoziation des Aptamers und damit eine vorzeitige Wiederherstellung der Proteinaktivität verhindert.
Background: Pythium ultimum (P. ultimum) is a ubiquitous oomycete plant pathogen responsible for a variety of diseases on a broad range of crop and ornamental species. Results: The P. ultimum genome (42.8 Mb) encodes 15,290 genes and has extensive sequence similarity and synteny with related Phytophthora species, including the potato blight pathogen Phytophthora infestans. Whole transcriptome sequencing revealed expression of 86% of genes, with detectable differential expression of suites of genes under abiotic stress and in the presence of a host. The predicted proteome includes a large repertoire of proteins involved in plant pathogen interactions although surprisingly, the P. ultimum genome does not encode any classical RXLR effectors and relatively few Crinkler genes in comparison to related phytopathogenic oomycetes. A lower number of enzymes involved in carbohydrate metabolism were present compared to Phytophthora species, with the notable absence of cutinases, suggesting a significant difference in virulence mechanisms between P. ultimum and more host specific oomycete species. Although we observed a high degree of orthology with Phytophthora genomes, there were novel features of the P. ultimum proteome including an expansion of genes involved in proteolysis and genes unique to Pythium. We identified a small gene family of cadherins, proteins involved in cell adhesion, the first report in a genome outside the metazoans. Conclusions: Access to the P. ultimum genome has revealed not only core pathogenic mechanisms within the oomycetes but also lineage specific genes associated with the alternative virulence and lifestyles found within the pythiaceous lineages compared to the Peronosporaceae.
Hereditary angioedema (C1 inhibitor deficiency, HAE) is associated with intermittent swellings which are disabling and may be fatal. Effective treatments are available and these are most useful when given early in the course of the swelling. The requirement to attend a medical facility for parenteral treatment results in delays. Home therapy offers the possibility of earlier treatment and better symptom control, enabling patients to live more healthy, productive lives. This paper examines the evidence for patient-controlled home treatment of acute attacks ('self or assisted administration') and suggests a framework for patients and physicians interested in participating in home or self-administration programmes. It represents the opinion of the authors who have a wide range of expert experience in the management of HAE.
Background: The human chromosomal region 9p21.3 has been shown to be strongly associated with Coronary Heart Disease (CHD) in several Genome-wide Association Studies (GWAS). Recently, this region has also been shown to be associated with Aggressive Periodontitis (AgP), strengthening the hypothesis that the established epidemiological association between periodontitis and CHD is caused by a shared genetic background, in addition to common environmental and behavioural risk factors. However, the size of the analyzed cohorts in this primary analysis was small compared to other association studies on complex diseases. Using our own AgP cohort, we attempted to confirm the described associations for the chromosomal region 9p21.3. Methods: We analyzed our cohort consisting of patients suffering from the most severe form of AgP, generalized AgP (gAgP) (n = 130) and appropriate periodontally healthy control individuals (n = 339) by genotyping four tagging SNPs (rs2891168, rs1333042, rs1333048 and rs496892), located in the chromosomal region 9p21.3, that have been associated with AgP. Results: The results confirmed significant associations between three of the four SNPs and gAgP. The combination of our results with those from the study which described this association for the first time in a meta-analysis of the four tagging SNPs produced clearly lower p-values compared with the results of each individual study. According to these results, the most plausible genetic model for the association of all four tested SNPs with gAgP seems to be the multiplicative one. Conclusion: We positively replicated the finding of an association between the chromosomal region 9p21.3 and gAgP. This result strengthens support for the hypothesis that shared susceptibility genes within this chromosomal locus might be involved in the pathogenesis of both CHD and gAgP.
Ziel dieser Arbeit war es, zwei Atemtestverfahren in der Diagnostik der bakteriellen Fehlbesiedelung im Dünndarm bei Kindern mit Zystischer Fibrose miteinander zu vergleichen. Der moderne 13C-Xylose-Atemtest wurde dem bisher etablierten H2-Glukose-Atemtest gegenübergestellt. Dabei sollte zusätzlich die Suszeptibilität der CF-Patienten für eine IBF eruiert werden. Die Probanden absolvierten einen kombinierten 13C-Xylose-/H2-Glukose-Atemtest. Retrospektiv wurden zunächst die H2-Ergebnisse der einzelnen Probandengruppen analysiert und dann den maximalen PDR-, cPDR- und den DOB-Werten gegenübergestellt. Die Ergebnisse der aktuellen Studie sprechen für die Prädisposition der CF-Patienten, eine IBF zu entwickeln. Kliniker sollten aber bei der Interpretation der Atemtestergebnisse stets die beeinflussenden Faktoren, die vor allem die Erkrankung der Mukoviszidose mit sich bringt, berücksichtigen und therapeutische Konsequenzen vorsichtig umsetzen. So können die erhöhten Wasserstoffkonzentrationen im H2-Glukose-Atemtest bei CF-Kindern nicht ausschließlich einer IBF zugeschrieben werden. Die hohen Nüchternwerte sind auch Ausdruck der allgemeinen Maldigestion, Malabsorption und der intestinalen Motilitätsstörung, die bei diesen Patienten vorherrschen. Der 13C-Xylose-Atemtest lieferte in den Gruppen der Erwachsenen und Kinder ohne Zystische Fibrose repräsentative Ergebnisse, was für zukünftige Nutzung im Rahmen der Diagnostik einer IBF spricht. Bei heranwachsenden Kindern ist lediglich die altersabhängige endogene CO2-Produktion und orozökale Transitzeit zu berücksichtigen. Für die Diagnostik einer IBF speziell bei Patienten mit Mukoviszidose erscheint uns der 13C-Xylose-Atemtest nicht geeignet, was wir hauptsächlich der krankheitsspezifischen generellen Malassimilation, der Malabsorption und der intestinalen Motilitätsstörung zuschreiben. Wir beführworten daher aktuell weiterhin unter Berücksichtigung der ihn beeinflussenden Faktoren die Anwendung des H2-Glukose-Atemtests in der gastroenterologischen Diagnostik einer IBF wegen der einfachen, preiswerten und nichtinvasiven Anwendbarkeit. Weitere Studien sollen in Zukunft klären, ob der 13C-Xylose-Atemest trotz seiner hohen Kosten regelmäßig mit Nutzen im klinischen Alltag anzuwenden ist. Im Vergleich mit dem Goldstandard des Jejunalaspirates müssen Sensitivität und Spezifität des Isotopen-Atemtests in zukünftigen Studien erarbeitet werden.
SUMMARY RECOMMENDATIONS 1. One of the major lessons from the current financial crisis refers to the systemic dimension of financial risk which had been almost completely neglected by bankers and supervisors in the pre-2007 years. 2. Accordingly, the most needed change in financial regulation, in order to avoid a repetition of such a crisis in the future, consists of influencing individual bank behaviour such that systemic risk is decreased. This objective is new and distinct from what Basle II was intended to achieve. 3. It is important, therefore, to evaluate proposed new regulatory instruments on the ground of whether or not they contribute to a reduction, or containment of systemic risk. We see two new regulatory measures of paramount importance: the introduction of a Systemic Risk Charge (SRC), and the implementation of a transparent bank resolution regime. Both measures complement each other, thus both have to be realized to be effective. 4. We propose a Systemic Risk Charge (SRC), a levy capturing the contribution of any individual bank to the overall systemic risk which is distinct from the institution’s own default risk. The SRC is set up such that the more systemic risk a bank contributes, the higher is the cost it has to bear. Therefore, the SRC serves to internalize the cost of systemic risk which, up to now, was borne by the taxpayer. 5. Major details of our SRC refer to the use of debt that may be converted into equity when systemic risk threatens the stability of the banking system. Also, the SRC raises some revenues for government. 6. The SRC has to be compared to several bank levies currently debated. The Financial Transaction Tax (FTT) does not directly address systemic risk and is therefore inferior to a SRC. Nevertheless, a FTT may offer the opportunity to subsidize on-exchange trading at the expense of off-exchange (over-the-counter, OTC) transactions, thereby enhancing financial market stability. The Financial Activity Tax (FAT) is similar to a VAT on financial services. It is the least adequate instrument among all instruments discussed above to limit systemic risk. 7. Bank resolution regime: No instrument to contain systemic risk can be effective unless the restructuring of bank debt, and the ensuing loss given default to creditors, is a real possibility. As the crisis has taught, bank restructuring is very difficult in light of contagion risk between major banks. We therefore need a regulatory procedure that allows winding down banks, even large banks, on short notice. Among other things, the procedure will require to distinguish systemically relevant exposures from those that are irrelevant. Only the former will be saved with government money, and it will then be the task of the supervisor to ensure a sufficient amount of nonsystemically relevant debt on the balance sheet of all banks. 8. Further issues discussed in this policy paper and its appendices refer to the necessity of a global level playing field, or the lack thereof, for these new regulatory measures; the convergence of our SRC proposal with what is expected to be long-term outcome of Basle III discussions; as well as the role of global imbalances.
Many studies show that most people are not financially literate and are unfamiliar with even the most basic economic concepts. However, the evidence on the determinants of economic literacy is scant. This paper uses international panel data on 55 countries from 1995 to 2008, merging indicators of economic literacy with a large set of macroeconomic and institutional variables. Results show that there is substantial heterogeneity of financial and economic competence across countries, and that human capital indicators (PISA test scores and college attendance) are positively correlated with economic literacy. Furthermore, inhabitants of countries with more generous social security systems are generally less literate, lending support to the hypothesis that the incentives to acquire economic literacy are related to the amount of resources available for private accumulation. JEL Classification: E2, D8, G1
Die Notwendigkeit der ipsilateralen Adrenalektomie als obligater Bestandteil einer Tumornephrektomie beim Nierenzellkarzinom wurde in der Literatur kontrovers diskutiert. Das Ziel der vorliegenden Studie war es, durch einen Vergleich von tumornephrektomierten Patienten mit und ohne Nebennierenbefall Parameter zu ermitteln, die eine präoperative Abschätzung des Nebennierenbefalls erlauben, und somit als Entscheidungshilfe zur Durchführung der Adrenalektomie im Rahmen einer Tumornephrektomie dienen können. In unserer Studie wurden insgesamt 250 Patienten mit Nierenzellkarzinom erfasst, die zwischen 1992 und 2001 in der Klinik für Urologie und Kinderurologie Prof. Dr. med. Dietger Jonas, Johann Wolfgang Goethe – Universität Frankfurt am Main operiert wurden. Dabei wurde in allen Fällen die radikale Tumornephrektomie nach Robson inklusive ipsilateraler Adrenalektomie durchgeführt. Alle Operationspräparate wurden im Senckenbergischen Institut für Pathologie Prof. Dr. med. M.-L. Hansmann, Frankfurt am Main untersucht und nach der 6. Auflage der TNM-Klassifikation in der von der UICC empfohlenen Weise eingestuft. In 9 der 250 Fälle (3,6 %) wurde ein Nebennierenbefall festgestellt. Statistisch signifikante Ergebnisse konnten für folgende Parameter ermittelt werden: · Präoperativer CT-Befund In der präoperativ durchgeführten CT wurden von 235 als unauffällig eingestuften Fällen 5 pathologische Nebennierenbefunde nicht erkannt (2,13 %). Von 15 als auffällig eingestuften Fällen wurden jedoch 4 als richtig pathologisch erkannt (26,6 %). Es ergaben sich für den Nachweis eines Nebennierenbefalls im CT eine Sensitivität von 44 %, eine Spezifität von 95,4 %, ein positiver prädiktiver Wert von 26,6 %, und ein negativer prädiktiver Wert von 97,8 %. · Nierentumorgröße Es zeigte sich ein Nebennierenbefall erst ab einer Tumorgröße von > 5 cm mit einer Wahrscheinlichkeit von 5,8 % (p = 0,035). · pTNM-Stadium Ein Nebennierenbefall ließ sich erst ab Tumorstadium pT 3a erkennen. Bei pT1- oder pT2-Tumoren war kein Nebennierenbefall festgestellt worden. Bei Patienten ohne Lymphknotenmetastasierung konnte ein Tumorbefall der Nebenniere in 2 von 224 Fällen (0,89 %) gefunden werden. Bei den Patienten mit Lymphknotenmetastasierung lag der Nebennierenbefall bei 3 von 12 Fällen (25 %) für die Nierentumoren mit pN1 und bei 4 von 14 Fällen (28,6 %) bei Nierentumoren mit pN2. Bei Patienten ohne Fernmetastasierung (230 Fälle) ließ sich in 3 Fällen (1,3 %) ein Nebennierenbefall aufweisen; bei vorliegender Fernmetastasierung (20 Fälle) lag der Anteil der befallenen Nebennieren mit 6 Fällen bei 30 %. · Tumorgrading Ein Nebennierenbefall war bei keinem der G1-Tumoren festgestellt worden. Bei 4,4 % der G2-Tumoren (6/136 Fällen) und bei 12,5 % der G3-Tumoren (3/24 Fällen) konnte ein Nebennierenbefall nachgewiesen werden. Da das Grading nur am Nephrektomiepräparat vorgenommen werden kann, spielt es als prädiktiver Parameter keine Rolle. · Infiltration benachbarter Strukturen 0,5 % (1/200 Fällen) der Patienten ohne und 16 % (8/50 Fällen) der Patienten mit einem Tumorthrombus in der V. renalis zeigten auch einen Nebennierenbefall (p = 0,000012). 2,9 % (7/240 Fällen) der Patienten ohne und 20 % (2/10 Fällen) der Patienten mit einer Infiltration in die V. cava zeigten einen Nebennierenbefall (p = 0,044). 14,5 % (9/62 Fällen) der Patienten mit Tumorinfiltration in die Nierenkapsel zeigten einen Nebennierenbefall; keiner der Patienten ohne Nierenkapselinfiltration zeigte einen Nebennierenbefall (p = 0,000002). Zusammenfassend lässt sich festhalten, dass eine ipsilaterale Adrenalektomie heutzutage keine obligate Komponente der Tumornephrektomie sein muß, sondern nur durchgeführt werden sollte, wenn folgende präoperative Bedingungen vorliegen: 1. auffällige präoperative bildgebende Beurteilung der Nebenniere durch Sonographie, Computertomographie oder ggf. Magnetresonanztomographie 2. Größe des Nierentumors > 5 cm unabhängig von der Pollokalisation 3. . Primärtumorstadium >= cT3a 4. CT-graphischer Nachweis von Lymphknoten- und/oder Fernmetastasen 5. CT-graphischer Nachweis einer vaskulären Invasion 6. CT-graphischer Nachweis einer Nierenkapselinfiltration 7. auffälliger intraoperativer Befund
This paper investigates the accuracy and heterogeneity of output growth and inflation forecasts during the current and the four preceding NBER-dated U.S. recessions. We generate forecasts from six different models of the U.S. economy and compare them to professional forecasts from the Federal Reserve’s Greenbook and the Survey of Professional Forecasters (SPF). The model parameters and model forecasts are derived from historical data vintages so as to ensure comparability to historical forecasts by professionals. The mean model forecast comes surprisingly close to the mean SPF and Greenbook forecasts in terms of accuracy even though the models only make use of a small number of data series. Model forecasts compare particularly well to professional forecasts at a horizon of three to four quarters and during recoveries. The extent of forecast heterogeneity is similar for model and professional forecasts but varies substantially over time. Thus, forecast heterogeneity constitutes a potentially important source of economic fluctuations. While the particular reasons for diversity in professional forecasts are not observable, the diversity in model forecasts can be traced to different modeling assumptions, information sets and parameter estimates. JEL Classification: G14, G15, G24
Price pressures
(2010)
We study price pressures in stock prices—price deviations from fundamental value due to a risk-averse intermediary supplying liquidity to asynchronously arriving investors. Empirically, twelve years of daily New York Stock Exchange intermediary data reveal economically large price pressures. A $100,000 inventory shock causes an average price pressure of 0.28% with a half-life of 0.92 days. Price pressure causes average transitory volatility in daily stock returns of 0.49%. Price pressure effects are substantially larger with longer durations in smaller stocks. Theoretically, in a simple dynamic inventory model the ‘representative’ intermediary uses price pressure to control risk through inventory mean reversion. She trades off the revenue loss due to price pressure against the price risk associated with remaining in a nonzero inventory state. The model’s closed-form solution identifies the intermediary’s relative risk aversion and the distribution of investors’ private values for trading from the observed time series patterns. These allow us to estimate the social costs—deviations from constrained Pareto efficiency—due to price pressure which average 0.35 basis points of the value traded. JEL Classification: G12, G14, D53, D61
This paper presents a model to analyze the consequences of competition in order-flow between a profit maximizing stock exchange and an alternative trading platform on the decisions concerning trading fees and listing requirements. Listing requirements, set by the exchange, provide public information on listed firms and contribute to a better liquidity on all trading venues. It is sometimes asserted that competition induces the exchange to lower its level of listing standards compared to a situation in which it is a monopolist, because the trading platform can free-ride on this regulatory activity and compete more aggressively on trading fees. The present analysis shows that this is not always true and depends on the existence and size of gains related to multi market trading. These gains relax competition on trading fees. The higher these gains are, the more the exchange can increase its revenue from listing and trading when it raises its listing standards. For large enough gains from multi-market trading, the exchange is not induced to lower the level of listing standards when a competing trading platform appears. As a second result, this analysis also reveals a cross - subsidization effect between the listing and the trading activity when listing is not competitive. This model yields implications about the fee structures on stock markets, the regulation of listings and the social optimality of competition for volume. JEL Classification: G10, G18, G12
This paper proposes the Shannon entropy as an appropriate one-dimensional measure of behavioural trading patterns in financial markets. The concept is applied to the illustrative example of algorithmic vs. non-algorithmic trading and empirical data from Deutsche Börse's electronic cash equity trading system, Xetra. The results reveal pronounced differences between algorithmic and non-algorithmic traders. In particular, trading patterns of algorithmic traders exhibit a medium degree of regularity while non-algorithmic trading tends towards either very regular or very irregular trading patterns. JEL Classification: C40, D0, G14, G15, G20
How ordinary consumers make complex economic decisions: financial literacy and retirement readiness
(2010)
This paper explores who is financially literate, whether people accurately perceive their own economic decision-making skills, and where these skills come from. Self-assessed and objective measures of financial literacy can be linked to consumers’ efforts to plan for retirement in the American Life Panel, and causal relationships with retirement planning examined by exploiting information about respondent financial knowledge acquired in school. Results show that those with more advanced financial knowledge are those more likely to be retirement-ready.
We examined financial literacy among the young using the most recent wave of the 1997 National Longitudinal Survey of Youth. We showed that financial literacy is low; fewer than one-third of young adults possess basic knowledge of interest rates, inflation, and risk diversification. Financial literacy was strongly related to sociodemographic characteristics and family financial sophistication. Specifically, a college-educated male whose parents had stocks and retirement savings was about 45 percentage points more likely to know about risk diversification than a female with less than a high school education whose parents were not wealthy. These findings have implications for consumer policy. JEL Classification: D91
This paper investigates the accuracy and heterogeneity of output growth and inflation forecasts during the current and the four preceding NBER-dated U.S. recessions. We generate forecasts from six different models of the U.S. economy and compare them to professional forecasts from the Federal Reserve’s Greenbook and the Survey of Professional Forecasters (SPF). The model parameters and model forecasts are derived from historical data vintages so as to ensure comparability to historical forecasts by professionals. The mean model forecast comes surprisingly close to the mean SPF and Greenbook forecasts in terms of accuracy even though the models only make use of a small number of data series. Model forecasts compare particularly well to professional forecasts at a horizon of three to four quarters and during recoveries. The extent of forecast heterogeneity is similar for model and professional forecasts but varies substantially over time. Thus, forecast heterogeneity constitutes a potentially important source of economic fluctuations. While the particular reasons for diversity in professional forecasts are not observable, the diversity in model forecasts can be traced to different modeling assumptions, information sets and parameter estimates. JEL Classification: C53, D84, E31, E32, E37 Keywords: Forecasting, Business Cycles, Heterogeneous Beliefs, Forecast Distribution, Model Uncertainty, Bayesian Estimation
This paper analyzes loan pricing when there is multiple banking and borrower distress. Using a unique data set on SME lending collected from major German banks, we can instrument for effective coordination between lenders, carrying out a panel estimation. The analysis allows to distinguish between rents that accrue due to single bank lending, rents that accrue due to relationship lending, and rents that accrue due to the elimination of competition among multiple lenders. We find the relationship lending to have no discernible impact on loan spreads, while both single lending and coordinated multiple lending significantly increase the spread. Thus, contrary to predictions in the literature, multiple lending does not insure the borrower against hold-up. JEL Classification: D74, G21, G33, G34
Grace in Sikhism
(2010)
As in all other religions there are two contrary streaming in Sikhism too. One teaches that meaning and value of human existence depends on the human works which we call the operative model. The other streaming preaches that the Holy’s grace is the substance of men’s ultimate destination, and it alone gives meaning to their existence; this position we call the receptive model. As the third streaming we can identify the doctrine of conditioned gratification which means that the humans get Divine support for achieving the salvation of their souls. This third one is obviously the predominant model in all religions. The religious books of the Sikhs have incorporated all positions. Therefore they are widespread and popular. Everybody finds what suits to him. We will reconstruct the receptive model as it is shown in Nitnem, where the daily prayers od the Sikhs are collected.
Die ägyptische Al-Azhar Universität feierte in März des Jahres 1983 ihr tausendjähriges Gründungsjubiläum. Chronologisch ist dieses Jubiläum allerdings etwas umstritten. In Wahrheit sind seit der Gründung der Al-Azhar nämlich keine 1000, sondern bereits 1013 Jahre verstrichen. Die Bauarbeiten an der Al-Azhar Moschee hatten bereits im April 970 angefangen. Die tausend Jahre verstehen sich somit als Beginn des eigentlichen Studienbetriebs an der Al-Azhar, die als Institution einige Jahre älter ist. Schon im Jahre 1942 hatte eine 1000-Jahrfeier an der Al-Azhar abgehalten werden sollen. Laut islamischem Mondkalender waren in eben diesem Jahr 1000 Mondjahre vergangen, doch die Ereignisse des 2. Weltkrieges, in den ja auch Ägypten verwickelt war, machten jede Hoffnung auf dies bezügliche Feierlichkeiten zunichte. Die Al-Azhar-Universität nennt sich die älteste Universität der Welt, durchaus mit Recht. Wenngleich man zugeben muß, daß schon lange vor der Gründung der Al-Azhar, Schulen und Akademien für das Studium aller Wissensgebiete existierten, von denen die bedeutendsten gerade hier in Ägypten angesiedelt waren. Man denke nur an die altägyptische Akademie von On, welcher Ort später von den Griechen Heliopolis genannt wurde, oder an die berühmte antike Akademie von Alexandrien. Es ist somit kein Zufall, daß nach der Ausbreitung des Islam eben hier im Niltal das erste große islamische Wissenszentrum gegründet wurde. ...
Der vorliegende Beitrag untersucht die erste Einführung des Buddhismus in Tibet und die dabei durch die Konfrontation mit der Bön-Religion entstehenden religiösen und politischen Konflikte. Die Tatsache, dass es zwei herausragende Einführungsphasen des Buddhismus in Tibet gab, deutet auf die religiösen Kontroversen hin, die sich in diesem Land abgespielt haben müssen. Es ergeben sich folgende Fragen: Wie haben die Tibeter auf das Eindringen des Buddhismus reagiert? Wie sieht das Verhältnis von Abgrenzung und Aneignung aus? Wie gingen die buddhistischen Mönche mit der vorherrschenden Bön-Religion um? Welche Wirkungen hatte die religiöse Dynamik auf die politische, ökonomische und soziale Lage des tibetischen Raums? ...
Zusammenfassung und Ergebnisse Es ist noch zu früh, eine abschließende Bewertung der Entwicklung auf den Finanzmärkten während der letzten zwei Jahre vorzunehmen. In jedem Fall sind aber alle Regelungen auf den Prüfstand zu stellen. Das Aufsichtsrecht hat insgesamt seine Aufgabe, Finanzstabilität zu gewährleisten, nicht erfüllt. Wesentliche Schritte für eine grundlegende Reform sind: - ein striktes Verständnis des Aufsichtsrechts als Sonderordnungsrecht - eine drastische Reduktion der Komplexität der Rechtsvorschriften - die Internationalisierung und Europäisierung der Aufsicht - die Steigerung der Transparenz der Verbriefung einschließlich eines möglichen Zulassungsverfahrens und des Verbots bestimmter gefährlicher „Produkte“ - die vollständige Neuausrichtung der Bewertung von Finanzunternehmen und ihrer „Produkte“ („ratings“) - Die Schaffung geeigneter Regeln und Verfahren, um auch systemisch relevante Institutionen der Marktdisziplin, also ihrem Untergang, auszusetzen - Die Grundlage für kurzfristige Entscheidung über Fortführung, Zerlegung oder Abwicklung eines Instituts als Maßnahme der Gefahrenabwehr muss geschaffen werden. Ein Sonderinsolvenzrecht für Banken ist nicht angezeigt - Die Einbeziehung des menschlichen Verhaltens und der Persönlichkeitsstruktur der maßgebenden Personen in den Finanzinstitutionen
ZUSAMMENFASSUNG UND ERGEBNISSE (1) Die Schaffung des Europäischen Ausschusses für Systemrisiken stößt nicht auf durchgreifende rechtliche Bedenken. (2) Es ist nicht sicher, dass die Errichtung der neuen Europäischen Aufsichtbehörden ohne entsprechende Änderung des Primärrechts zulässig ist. (3) Es kommt entscheidend darauf an, welche rechtsverbindlichen Einzelweisungsbefugnisse tatsächlich den Behörden verliehen werden. (4) Die nach dem Kompromiss vom 2. Dezember 2009 noch verbliebenen Einzelweisungsbefugnisse der Behörden gegenüber Privaten und gegenüber nationalen Aufsichtsbehörden sind rechtlich kaum abgesichert. (5) Wenn die hoheitlichen Befugnisse weitgehend oder vollständig beseitigt werden, bestehen Bedenken im Hinblick auf die Geeignetheit und Erforderlichkeit der Einrichtungen. (6) Die weitreichenden Unabhängigkeitsgarantien sind nicht mit den Anforderungen demokratischer Aufsicht und Kontrolle zu vereinbaren. (7) Für die Einräumung von Unabhängigkeit ist nach deutschem Verfassungsrecht eine ausdrückliche Regelung in der Verfassung, wie in Art. 88 Satz 2 GG, erforderlich. (8) Die transnationale Kooperation von Verwaltungsbehörden bedarf zumindest dann einer gesetzlichen Ermächtigung, wenn faktisch verbindliche Entscheidungen getroffen werden.
In this thesis we have studied the physics of different ultracold Bose-Fermi mixtures in optical lattices, as well as spin 1=2 fermions in a harmonic trap. To study these systems we generalized dynamical mean-field theory for a mixture of fermions and bosons, as well as for an inhomogeneous environment. Generalized dynamical mean-field theory (GDMFT) is a method that describes a mixture of fermions and bosons. This method consists of Gutzwiller mean-field for the bosons, and dynamical mean-field theory for the fermions, which are coupled on-site by the Bose-Fermi density-density interaction and possibly a Feshbach term which converts a pair of up and down fermions into a molecule, i.e. a boson. We derived the self-consistency equations and showed that this method is well-controlled in the limit of high lattice coordination number z. We develop real-space dynamical mean-field theory for studying systems in an inhomogeneous environment, e.g. in a harmonic trap. The crucial difference compared to standard DMFT is that we are taking into account that different sites are not equivalent to each other and thus take into account the inhomogeneity of the system. Different sites are coupled by the real-space Dyson equation. ...
Ziel der vorliegenden Arbeit ist es, Erkenntnisse über die Beeinflussung der Überlebensraten von Patienten mit Nierenzellkarzinom durch verschiedene Faktoren wie Tumorstadium und Tumorgröße, Differenzierungsgrad, Metastasierung und histologischer Subtyp zu gewinnen. Insbesondere soll die Frage geklärt werden, inwiefern die Prognose der Patienten von der Art der Diagnosestellung, also inzidentell oder symptomatisch, abhängt. Zu diesem Zweck wurden die Daten aller Patienten, die zwischen dem 01.01.1997 und dem 31.12.2005 in der urologischen Universitätsklinik in Frankfurt am Main mit der Verdachtsdiagnose eines Nierenzellkarzinoms radikal nephrektomiert bzw. teilreseziert worden sind, retrospektiv erhoben und analysiert. Die Patienten wurden entweder der asymptomatischen Gruppe zugeteilt, bei denen der Nierentumor zufällig diagnostiziert werden konnte oder der Gruppe bei der die Diagnose erst aufgrund einer auf den Nierentumor oder seine Metastasen hinweisenden Symptomatik gefunden werden konnte. Die mediane Nachbeobachtungszeit betrug 50 Monate (1 bis 112 Monate). Insgesamt konnte die Diagnose Nierenzellkarzinom bei 246 (68,72 %) Patienten zufällig gestellt, nur 112 (31,28 %) präsentierten sich mit darauf hinweisender Symptomatik. Inzidentelle Tumoren waren signifikant kleiner als Symptomatische (4,8cm versus 6,8cm) und wiesen signifikant häufiger ein niedriges Tumorstadium (p<0,001) und eine günstigere Differenzierung auf (p<0,001). Zusätzlich kam es seltener zu Fernmetastasen sowie zum Befall regionaler Lymphknoten. Hinsichtlich der Verteilung von Alter und Geschlecht ergaben sich keine Unterschiede zwischen den beiden Gruppen. Therapeutisch ergaben sich in bezug auf die durchführbare Operationsart signifikante Unterschiede. Während bei immerhin 36,18% aller Patienten mit inzidentellen Tumoren eine Teilresektion durchgeführt werden konnte, war solch ein nierenerhaltendes Vorgehen nur bei 6,25% aller Patienten mit symptomatischen Tumoren möglich. Die Überlebenswahrscheinlichkeit erwies sich als signifikant besser für Patienten mit inzidentell diagnostizierten Tumoren (p<0,001), genauso wie für Tumoren mit besserem Differenzierungsgrad (p<0,001), günstigerem Staging (p<0,001) sowie geringerer Größe (p<0,001). In multivariater Analyse bestätigten sich nur Diagnoseart, Differenzierungsgrad und das Vorhandensein bzw. Nichtvorhandensein von Metastasen als unabhängige prognostische Variablen. Patienten, bei denen der Tumor zufällig anhand einer Routineuntersuchung in völlig asymptomatischem Stadium gefunden werden kann, haben demnach eine signifikant bessere Überlebenswahrscheinlichkeit. Aus diesem Grund sowie aus der Tatsache heraus, dass bisherige Ergebnisse systemischer Therapien die Langzeitüberlebensrate der Patienten mit fortgeschrittenen Nierenzellkarzinomen meist nicht verbessern können, bleibt die Frage der Notwendigkeit einer Screeninguntersuchung weiter bestehen. Jede Möglichkeit einer frühzeitigen Diagnose sollte genutzt werden. Hier bietet sich insbesondere die Sonographie als kostengünstigstes und nicht invasives Verfahren an. Inwieweit die Empfehlung einer generellen und flächendeckenden Screeningmaßnahme sinnvoll ist, wird allerdings weiterhin anhand ihrer Kosteneffizienz beurteilt und kann deshalb beim Nierenzellkarzinom aufgrund der doch vergleichsweise geringen Prävalenz nicht ausgesprochen werden. Doch erscheint die Forderung sinnvoll, die Nieren im Rahmen abdominaler Sonographien aus nichturologischen Gründen immer mit zu untersuchen. Die kurze Zeit, die dies für den geübten Untersucher in Anspruch nimmt, ist tolerierbar; vor allem im Hinblick auf den Benefit, den diese Untersuchung für den Patienten haben kann. Ebenso sinnvoll und realistisch erscheint, dass jeder Urologe zumindest bei seinen Patienten in regelmäßigen Abständen die Nieren schallt oder es Ihnen zumindest als entgeltliche IGeL Leistung anbietet. Die Entdeckung eines Nierentumors in einem frühen asymptomatischen Stadium erscheint sowohl hinsichtlich der Therapie als auch ihrer Prognose am günstigsten zu sein.
Nach einer erfolgten Stammzelltransplantion im Rahmen einer Leukämie sollte in regelmäßigen Abständen der hämatopoetische Chimärismus untersucht werden, da ansteigende autologe Anteile einem Rezidiv häufig voran gehen. [33, 35-37] Es wurde in den letzten Jahren beschrieben [50, 52, 54, 55, 81], dass Sequenzpolymorphismen (SPs) als hochempfindliche Marker für die Chimärismusanalyse fungieren können. Durch sie würde eine deutlich höhere Sensitivität erzielt werden, als mit der bisher verwendeten Methode, die Short Tandem Repeats als Marker zur Diskriminierung von Spender und Empfänger benutzt. Ziel dieser Arbeit war es, die Proben von Kindern, die nach einer ALL eine Stammzelltransplantation erhalten hatten, und die bereits mit der STR-Methode untersucht worden waren, mit der RT-PCR-Methode in Hinblick auf die in der Einleitung gestellten Fragen, erneut zu analysieren. Es ist in 96 % der Empfänger-/Spenderpaare möglich unter den 29 ausgewähltenten SPs mindestens einen geeigneten Marker zu finden und sicherlich wäre es möglich noch weitere Sequenz-Polymorphismen hinzu zu nehmen, falls die Informativität der 29 verwendeten nicht ausreichend ist. Es konnte in fast allen Experimenten eine Sensitivität von 0,1 % erreicht werden, mit zunehmender experimenteller Erfahrung immer zuverlässiger, so dass man inzwischen ein Experiment, bei dem diese Sensitivität nicht erreicht wird, wiederholen würde. Durch eine Vereinfachung der Methode mit einem optimierten Primerscreening, universellen Standardreihen und dem Einsatz von einer definierten Menge DNA-Lösung, die zumindest über einen weiten Bereich unabhängig ist von der enthaltenen Konzentration, lässt sich eine Laborroutine entwickeln, die ähnlich zeitaufwändig ist, wie der jetzige Goldstandard, die STR-Methode. Allerdings ist die RT-PCR-Methode derzeit noch deutlich teurer. In dieser Arbeit zeigt sich, dass die Real-Time PCR mit Sequenz Polymorphismen als genetische Marker eine sehr sensitive Methode zur Erfassung autologer Anteile darstellt und in der praktischen Anwendbarkeit mit der bisherigen PCR-Methode mit Short Tandem Repeats zur Differenzierung vergleichbar ist. Häufig lassen sich autologe Signale früher detektieren. Dadurch werden auch mehr Patienten als gefährdet eingestuft. Vor allem Patienten, die zweimal oder öfter in Folge einen gemischten Chimärismus von größer als 0,5 % aufweisen (und sich nicht in der Phase eines abnehmenden Chimärismus befinden) müssen genau beobachtet und engmaschig kontrolliert werden. Bei einer ansteigenden Dynamik ist es häufig sinnvoll, eine Immuntherapie einzuleiten. Nur bei zwei unserer Patienten verschwanden die autologen Signale von alleine wieder. Bei 50 % der Rezidivpatienten und bei 2 der 3 Patienten, die abgestoßen haben, sieht man mit der RT-PCR-Methode früher autologe Signale. Es wäre jetzt in einem nächsten Schritt nötig, bei einem ausreichend großen Patientenkollektiv beide Methoden parallel in einer prospektiven Studie miteinander zu vergleichen.
On demand treatment and home therapy of hereditary angioedema in Germany - the Frankfurt experience
(2010)
Background: Manifestation of acute edema in hereditary angioedema (HAE) is characterized by interindividual and intraindividual variability in symptom expression over time. Flexible therapy options are needed. Methods: We describe and report on the outcomes of the highly individualized approach to HAE therapy practiced at our HAE center in Frankfurt (Germany). Results: The HAE center at the Frankfurt University Hospital currently treats 450 adults with HAE or AAE and 107 pediatric HAE patients with highly individualized therapeutic approaches. 73.9% of the adult patients treat HAE attacks by on-demand therapy with pasteurized pd C1-INH concentrate, 9.8% use additional prophylaxis with attenuated androgens, 1% of the total patient population in Frankfurt has been treated with Icatibant up to now. In addition adult and selected pediatric patients with a high frequency of severe attacks are instructed to apply individual replacement therapy (IRT) with pasteurized pd C1-INH concentrate. Improvement on Quality of Life items was shown for these patients compared to previous long-term danazol prophylaxis. Home treatment of HAE patients was developed in the Frankfurt HAE center in line with experiences in hemophilia therapy and has so far been implemented over a period of 28 years. At present 248 (55%) of the adult patients and 26 (24%) of the pediatric patients are practicing home treatment either as on demand or IRT treatment. Conclusions: In conclusion, the individualized home therapies provided by our HAE center, aim to limit the disruption to normal daily activities that occurs for many HAE patients. Furthermore, we seek to optimize the economic burden of the disease while offering a maximum quality of life to our patients.
Background We published the Canadian 2003 International Consensus Algorithm for the Diagnosis, Therapy, and Management of Hereditary Angioedema (HAE; C1 inhibitor [C1-INH] deficiency) and updated this as Hereditary angioedema: a current state-of-the-art review: Canadian Hungarian 2007 International Consensus Algorithm for the Diagnosis, Therapy, and Management of Hereditary Angioedema. Objective To update the International Consensus Algorithm for the Diagnosis, Therapy and Management of Hereditary Angioedema (circa 2010). Methods The Canadian Hereditary Angioedema Network (CHAEN)/Reseau Canadien d'angioedeme hereditaire (RCAH) (www.haecanada.com) and cosponsors University of Calgary and the Canadian Society of Allergy and Clinical Immunology (with an unrestricted educational grant from CSL Behring) held our third Conference May 15th to 16th, 2010 in Toronto Canada to update our consensus approach. The Consensus document was reviewed at the meeting and then circulated for review. Results This manuscript is the 2010 International Consensus Algorithm for the Diagnosis, Therapy and Management of Hereditary Angioedema that resulted from that conference. Conclusions Consensus approach is only an interim guide to a complex disorder such as HAE and should be replaced as soon as possible with large phase III and IV clinical trials, meta analyses, and using data base registry validation of approaches including quality of life and cost benefit analyses, followed by large head-to-head clinical trials and then evidence-based guidelines and standards for HAE disease management.
Die Debatte um die Rolle des Nationalstaates und der Nation als Entität von politischer und ethischer Relevanz in Fragen globaler und sozialer Gerechtigkeit beschäftigt Wissenschaftler aus den Bereichen der Philosophie, Politik, Wirtschaft, Soziologie uvm. Der Politikwissenschaftler und Philosoph David Miller (Oxford) vertritt eine Theorie, die auf der "Nation" als einer eigenen, emergenten Entität aufbaut, die Miller als eine ethisch relvante Gruppe charakterisiert, die u.a. den Willen und das Recht zur politischen Selbstbestimmung hat. Die Welt, so Miller, stellen wir uns am besten als eine Welt der Nationalstaaten vor, in Fragen der gloablen und sozialen Gerechtigkeit existiere tendenziell zu Recht eine Bias zugunsten der eigenen Compatriots und der eigenen Nation. In dieser Magisterarbeit wird zunächst die metaethische Debatte in der Diskussion um Miller herum zwischen kosmopolitischen und kontextuell-relativistischen Theoretikern skizziert. Danach erfolgt eine Betrachtung von Miller Konzept der Nation und der nationalen Identität. Es wird weiterhin betrachtet, warum und wie Miller der Nation ethische Relevanz zuschreibt. Danach werden seine Gründe für ein Recht auf nationale Selbstbestimmung beleuchtet, seine Konzeption sozialer Gerechtigkeit untersucht und Millers Haltung zum Verhältnis des Nationalsstaates vs. der globalen Gemeinschaft betrachtet. Es wird zu dem Schluss gelangt werden, dass Millers liberaler Nationalismus argumentativ zu problematisch bleibt, um überzeugend die kosmopolitischere Position zu Fragen globalen Gerechtigkeit zurückzuweisen. Ebenso wird als unschlüssig erachtet, wie Miller aufgrund seiner eigenen Argumente eine ethische Bevorzugung von Compatriots aufrecht erhalten kann. Im Ausblick erfolgt ein Resümee sowie ein Vorschlag, die Debatte in Richtung transnational motivierter Ansätze hin fortzuführen.
Hintergrund: Die häufigsten infektiösen Ursachen für Durchfallerkrankungen sowohl im Kindes- als auch im Erwachsenenalter sind viraler Genese. Dabei werden Rota-, Noro-, Adeno- und Astroviren in absteigender Reihenfolge benannt. Die Diagnose der oft nosokomialen Infektionen erfolgt durch Virusnachweis in Stuhlproben. Material und Methodik: In dieser retrospektiven epidemiologischen Auswertung wurden anhand der Stuhlproben von Gastroenteritispatienten im Zeitraum 2000 – 2008 die Häufigkeitsverteilung der einzelnen Viren sowie saisonale Aspekte untersucht. Bestimmt wurden des Weiteren die Geschlechts- und die Altersverteilung der Patienten. Der überwiegende Anteil der eingesandten Proben entstammte der Universitätsklinik Frankfurt/Main; hinzu kamen Proben von einigen in näherer Umgebung liegenden Gesundheitsämtern, Krankenhäuser und Laborarztpraxen. Ergebnisse: Die laborchemische Effizienz beträgt ca. 10 – 20 %. In Deutschland ist die winterliche Rotavirusinfektion bei Kleinkindern die häufigste Ursache des Brechdurchfalls. An zweiter Stelle stehen im Wechsel Adeno- und Norovirusinfektionen, während Astrovirusinfektionen in den letzten Jahren selten geworden sind. Schlussfolgerung: In Übereinstimmung mit neuen Studien aus anderen Regionen wird belegt, dass Noroviren des Typ 2 heute einen wesentlichen Anteil bei der infektiösen Gastroenteritis stellen und – im Unterschied zu Rotaviren – vor allem ältere Menschen betroffen sind.
To date it is not clear at which stage of differentiation mature T cell leukaemia/lymphoma is initiated. Previous studies in our group showed that mature T cells are relatively resistant to transformation. We wanted to further investigate the transformation potential of NPM-ALK, p21SNFT and the viral oncoprotein Tax on mature T cells. First, we analyzed the effects on T cell growth in vitro after transducing human T cell lines with gammaretroviral vectors encoding these genes. No growth or proliferation promoting effect of all three genes was observed. In the second part of the project, we transduced murine, mature T cells and/or haematopoietic stem cells (HPCs/HSCs) and transplanted these cells into Rag-1 deficient recipients. All mice transplanted with NPM-ALK transduced monoclonal mature T cells (OT-1) developed leukaemia/lymphoma. In contrast, only few NPM-ALK transduced polyclonal T cell and HPC/HSC transplanted mice developed leukaemia/lymphoma. From the p21SNFT group, only two mice transplanted with transduced OT-1 T cells developed leukaemia/lymphoma, which showed high eGFP and interestingly CD19 expression. No malignancies were observed in Tax transplanted animals so far. Furthermore, the recipients do not show any eGFP marking in the periphery. In conclusion, our results show that compared to polyclonal T cells, monoclonal T cells are transformable after gammaretroviral transfer of NPM-ALK and p21SNFT.
Die vorliegende Dissertationsschrift im Fachgebiet Musikpädagogik widmet sich dem heutigen Stand des Instrumentalunterrichts auf Blechblasinstrumenten und dessen möglicher Weiterentwicklung unter besonderer Berücksichtigung neuer methodischer Ansätze. Hierbei stehen interdisziplinäre Übungskonzepte zur Förderung einer ganzheitlichen Instrumentalpädagogik im Vordergrund, insbesondere unter systematischer Miteinbeziehung spezieller mundmotorischer logopädischer Übungen. Mit der Zielsetzung, gängige Unterrichtskonzepte zu untersuchen und potenziell innovative Methoden aufzuzeigen, war zunächst grundlegende Forschungstätigkeit notwendig, da musikpädagogische Forschung im deutschen Sprachraum bisher die Blechblasinstrumente so gut wie nicht mit einbezogen hat (Suppan, 1994: 431; Bastian, 1992: 128ff). Nach entsprechender Recherche und dem Erstellen eines ersten Studiendesigns erwies sich eine Eingrenzung der Untersuchung auf die Instrumentalpädagogik von Trompete, Horn und Posaune als sinnvoll. Entsprechend dem Untertitel dieser Studie zu Theorie, Empirie und Didaktik modernen Instrumentalunterrichts gliedert sich diese Schrift in drei Hauptteile. Der theoretische Teil der Arbeit erläutert die sogenannte Ansatzphysiognomie und stellt diese ausführlich dar. Hierbei werden auf die didaktische Vermittlung des Bläseransatzes, dessen Anatomie sowie die Elemente des orofazialen Systems in Bezug zu deren Funktion beim Spielen eines Blechblasinstruments eingegangen. Ebenso werden Pathologien und ihre Konsequenzen für das Erlernen eines Blechblasinstruments erörtert. Nach einer Betrachtung des Mundes als Quelle sensorischer-integrativer Funktion, erfolgt eine Einführung in die orofaziale Muskelfunktionstherapie mit ihren „myofunktionellen Übungen“. Für die klare bildliche Darstellung der Anatomie wurde ein separater, auch für „Nicht-Anatomen“ verständlicher, Bildband (Band 2 dieser Dissertationsschrift) verfasst. Der didaktische Teil dieser Arbeit widmet sich den aktuellen Lehrplänen und Lehrmitteln für den Instrumentalunterricht bei Trompete, Horn und Posaune. Hierfür wurde in einem ersten Schritt zunächst der Verbreitungsgrad von Anfänger-Instrumentalschulen für diese Blechbläser ermittelt. Für eine systematische und einheitliche Bewertung dieser Schulen war es dann in einem zweiten Schritt erforderlich, ein entsprechendes Bewertungsinstrument zu entwickeln, welches als der „Frankfurter Analysebogen für Instrumentalschulen (FAI)“ vorgestellt wird. Mit diesem Fragebogen wurden insgesamt 40 Instrumentalschulen für Trompete, Horn und Posaune analysiert und evaluiert (Band 3 dieser Dissertationsschrift). Zum Abschluss des Kapitels erfolgt eine Betrachtung der aktuellen VdM-Lehrpläne sowie des Jugendmusiker-Leistungsabzeichens der BDB-Bläserjugend. Im empirischen Teil werden im Wesentlichen die Ergebnisse und Implikationen der Studie "Moderner Instrumentalunterricht auf Blechblasinstrumenten" aus Sicht der Lehrkräfte sowie der Schülerinnen und Schüler dargestellt. Die Befragung von 140 Lehrkräften und 853 Schülerinnen und Schüler soll hierbei Antworten auf grundlegende Fragen der Didaktik im gegenwärtigen Blechbläserunterricht geben. Die interdisziplinäre Evaluationsstudie "Zur musikpädagogischen Bedeutung von myofunktionellen Übungen" eröffnet aufgrund ihrer Ergebnisse die Möglichkeit einer Weiterentwicklung der Methodik im Bereich der Blechbläserpädagogik.
Die Hodgkin/Reed-Sternberg Zellen des klassischen Hodgkin Lymphoms stammen von Keimzentrums-B-Zellen ab. Dennoch prägen sie fast keine B-Zell-spezifischen Gene aus, stattdessen ko-exprimieren sie Marker anderer hämatopoetischer Linien. Die Ursache für den Verlust des B-Zell-Phänotyps ist weitestgehend unbekannt, da die Transkriptionsfaktoren E2A und PAX5, die in reifen B-Zellen zur Aufrechterhaltung der Expression B-Zell-spezifischer Gene essentiell sind, von primären HRS Zellen ausgeprägt werden. Allerdings wird PAX5 im Vergleich zu normalen B-Zellen deutlich schwächer exprimiert. E2A wird durch direkte Interaktion mit dem inhibitor of DNA binding, ID2, negativ reguliert. ID2 besitzt eine bHLH-Struktur und dimerisiert mit Transkriptionsfaktoren. Da ihm jedoch die DNA-bindende Domäne fehlt, wird die Bindung der Heterodimere an die DNA verhindert und die Transkriptionsfaktoren somit inaktiviert. In hämatopoetischen Zellen scheint die ID2-Expression die B-Zell-Entwicklung und auch die Expression B-Zell-spezifischer Gene zu unterdrücken und stattdessen die Ausprägung von Genen anderer Linien zu unterstützen. In reifen B-Zellen wird ID2 während der Plasmazellentwicklung bei gleichzeitigem Verlust der Expression B-Zell-spezifischer Gene stark exprimiert. In der vorliegenden Arbeit konnte gezeigt werden, dass ID2, das in normalen B-Zellen nicht detektiert werden konnte, dagegen in allen HL-Fällen nicht nur auf RNA-Ebene, sondern auch auf Proteinebene stark exprimiert wird. Ko-Immunopräzipitation des E2A mit ID2 aus HL-Zelllinien zeigte die Interaktion und somit vermutlich auch die transkriptionelle Inaktivierung des E2A durch ID2, wodurch es zum Verlust der Expression B-Zell-spezifischer Gene kommt. Darüber hinaus wird PAX5 zusammen mit EBF durch E2A induziert. So führt die ID2-vermittelte E2A-Inaktivierung im HL vermutlich dazu, dass ID2 via EBF auch die Regulation von PAX5 beeinflusst. PAX5 spielt bei der Differenzierung eine duale Rolle, denn es aktiviert nicht nur B-Zell-spezifische Gene, sondern es unterdrückt auch die Gene anderer Linien. Demnach könnte ID2 auch an der Expression der nicht-B-Zell-spezifischen Gene im HL beteiligt sein. Darüber hinaus ist ID2 im HL durch die E2A-Inaktivierung via EBF auch möglicherweise an der schwächeren Expression des PAX5 im Vergleich zu normalen B-Zellen beteiligt. Obwohl das ID2-Protein in den HL-Zelllinien durch RNA-Interferenz erfolgreich reduziert werden konnte, zeigte sich allerdings weder eine Änderung der Proteinexpression der B-Zell-spezifischen Gene CD19 und CD79A noch der Gene anderer hämatopoetischer Linien GATA-3 und M-CSF-R. Unabhängig von seiner möglichen Beteiligung an der Dedifferenzierung der HRS Zellen im HL, spielt ID2 vermutlich auch eine weitere Rolle in der Pathogenese des HL. Verschiedene Interaktionen weisen darauf hin, dass ID2 auch an der Regulation des Zellzyklus beteiligt ist. Zum einen konnte in dieser Arbeit die Interaktion des ID2 mit dem HLH-Protein HEF1 zumindest in einer der HL-Zelllinien gezeigt werden. HEF1 ist ein Aktivator der Aurora Kinase 1, welche nach Aktivierung Gene phosphoryliert, die den Ablauf der Mitose begünstigen. Zum anderen konnte der negative Zellzyklusregulator p21Cip1 in HL-Zelllinien durch RNAi-vermittelte Reduktion des ID2-Proteins als ID2-Target-Gen identifiziert werden. Auch wenn die Interaktion mit RB, dem zur Familie der Pocket-Proteine gehörenden Schlüsselregulator des Zellzyklusverlaufs, in HL-Zelllinien nicht nachgewiesen werden konnte, zeigen die Ergebnisse dieser Arbeit, dass die aberrante ID2-Expression offenbar an der Veränderung des Zellzyklus im HL beteiligt ist. Sie lassen jedoch noch keinen endgültigen Schluss zu. Wie in dieser Arbeit gezeigt wurde, wird ID2 ebenfalls im analplastisch großzelligen T-Zell-Lymphom aberrant exprimiert. Auch eine Interaktion mit E2A, das auch in der T-Zell-Entwicklung eine Rolle spielt, konnte gezeigt werden. Nicht zuletzt scheint demnach ID2 auch in der Dedifferenzierung des ALCL ein wichtiger Faktor zu sein. ID2 wird im HL aberrant exprimiert und es konnte die Interaktion mit E2A in den HL-Zelllinien nachgewiesen werden, wodurch die transkriptionelle Aktivität des E2A vermutlich inhibiert wird. Auch wenn in Folge der RNAi-vermittelten Herunterregulation von ID2 in den HL-Linien weder eine Re-Expression B-Zell-spezifischer Gene noch eine Beeinflussung der Expression Marker andere hämatopoetischer Linien gefunden werden konnte, spielt ID2 vermutlich dennoch eine wichtige Rolle in der Dedifferenzierung der HRS Zellen im HL. Unabhängig davon konnte der negative Zellzyklusregulator p21Cip1 als ID2-Target-Gen identifiziert und eine Interaktion mit HEF1 gezeigt werden. Demnach ist ID2 möglicherweise nicht nur an der Dedifferenzierung, sondern auch an der Dysregulation des Zellzyklus im HL beteiligt und somit ein wichtiger Faktor in der Pathogenese des HL.
Diese Dissertation befasst sich mit der massenspektrometrischen Analytik von Membranproteinen. Diese gestaltet sich aufgrund der hydrophoben Natur der Proteine und der damit verbundenen schlechten Löslichkeit in wässrigen Puffersystemen als deutlich schwieriger als die Untersuchung löslicher Proteine. Einige weitere Probleme entstehen durch die konsequente Verwendung der Referenzprotease Trypsin zur Hydrolyse der Proteine. Sie spaltet ausschließlich Peptidbindungen nach basischen Aminosäuren, die naturgemäß in den unpolaren Helixbereichen der Membranproteine nur vereinzelt anzutreffen sind. Im Rahmen dieser Arbeit wurden auf weniger spezifischen Proteasen basierende Protokolle zur Analyse von ganzen Membranproteomen entwickelt, welche einige der ursprünglichen Probleme umgehen oder zumindest vermindern. Die Proteolysereaktion fand in Anwesenheit von Methanol statt, welcher die Membranstruktur destabilisiert und so die Zugänglichkeit der in die Membran eingebetteten Proteinteile für das Enzym erhöht. Zusätzlich erhöhte sich dadurch die Löslichkeit gebildeter hydrophober Peptide im Puffer. Das neue Protokoll wurde an Bacteriorhodopsin, einem geläufigen Modellsystem für α helikale Membranproteine, erfolgreich etabliert. Bei Verwendung der Proteasen Elastase und Pepsin konnten nach nLC-Trennung und MALDI-MS/MS deutlich mehr Peptide des Membranproteins signifikant identifiziert werden, als es mit Trypsin möglich gewesen ist. Auch qualitativ ergaben sich Unterschiede zwischen beiden Enzymen. Mit den alternativen Enzymen ließen sich nicht nur die hydrophilen peripheren Proteinabschnitte nachweisen, sondern auch zahlreiche Peptide aus den hydrophoben Transmembranbereichen. Das am Modellprotein etablierte Elastase-Protokoll konnte problemlos auf die Analyse des komplexeren Membranproteoms von Corynebacterium glutamicum transferiert werden. So konnten ca. 150 verschiedene Proteine identifiziert werden, darunter auch zahlreiche Membranproteine. Die erzeugten Peptidmischungen wurden nicht nur mittels nLC-MALDI-TOF/TOF sondern auch mit einer nLC-ESI-Orbitrap-Plattform analysiert. Anhand einer detaillierten Analyse der physikochemischen Eigenschaften der entstandenen Peptide konnte gezeigt werden, dass der dabei beobachtete Vorteil des ESI-Instrumentes zu großen Teilen auf die bessere Detektion aliphatischer Neutralpeptide zurückzuführen war. Diese werden bei der MALDI vornehmlich aufgrund der schlechteren Ionisation bei Verwendung der Standardmatrix α-Cyano-4-Hydroxyzimtsäure diskriminiert. Ein weiterer Vorteil des verwendeten ESI-Gerätes ist seine bessere Massengenauigkeit durch den hochauflösenden Orbitrap-Massenanlysator. Wurden die MALDI-TOF/TOF-Fragmentierungsdaten durch, auf einem zweiten Instrument gemessene, genaue MALDI-Orbitrap-Vorläufermassen supplementiert, konnten über 30% mehr Peptide signifikant identifiziert werden. Die gesammelten Daten konnten zur Erhebung einiger Statistiken über Elastase und Pepsin herangezogen werden. Erstmals wurde eine umfassende Untersuchung der Spaltspezifität von Elastase vorgenommen. Das Enzym hydrolysiert in ca. 82% der Fälle nach den kleinen hydrophoben Aminosäuren Ala, Val, Ile, Leu, Ser und Thr. Diese Spezifität ist für proteolytische Schnitte innerhalb der hydrophoben Helixbereiche von Membranproteinen äußerst vorteilhaft. Sie reicht aus, um Peptide Mass Fingerprinting an Einzelproteinen durchzuführen, wie exemplarisch am Modellprotein Bacteriorhodopsin gezeigt wurde. Die für Pepsin erhaltene Spezifität ist hingegen zu undifferenziert für solche Experimente, weshalb hier MS/MS-basierte Strategien vorzuziehen sind. Weitergehende Verbesserungen für Datenbanksuchen mit weniger spezifischen Proteasen wurden vorgeschlagen. Hierzu wurde erstmals eine größere Fragmentierungsstatistik eines nichttryptischen Datensatzes auf einem MALDI-Instrument erstellt, deren Aussage zur Verifizierung von Suchergebnissen in die Algorithmen implementiert werden kann. Beim Einsatz weniger spezifischer Proteasen erhöht sich im Vergleich zu Trypsin die entstehende Peptidkomplexität. Zur Kompensation dessen wurde eine Fraktionierung mittels Off-gel IEF vor der nLC-MALDI-Analyse etabliert. Zwecks direkter Kompatibilität zur nLC wurde ein Off-gel IEF-Protokoll ohne die Probeninjektion störendes Glycerol entwickelt. So ließ sich die dreifache Menge an Peptiden nachweisen, als mit ausschließlich eindimensionaler nLC-Trennung. In Verbindung mit den durch Trypsin erzielbaren Resultaten lassen sich mit den weniger spezifischen Enzymen viele Membranproteine umfassender charakterisieren, da zusätzlich die hydrophoben Transmembranbereiche und somit mehr Informationen für die Analytik zugänglich sind. Der gezielte Einsatz von alternativen Enzymen verbessert die momentane Situation in der Membranproteom-Analytik deutlich und führt diese einen weiteren Schritt an die Analytik löslicher Proteine heran.
Als Teil der Atmungskette des hyperthermophilen Bakteriums Aquifex aeolicus besteht die NADH:Ubichinon-Oxidoreduktase aus 13 Untereinheiten, die durch 24 unterschiedliche Gene codiert werden. Im Rahmen dieser Arbeit wurde für den massenspektrometrischen Nachweis dieser Untereinheiten nach der Aufreinigung des Komplexes eine SDS-PAGE durchgeführt, an die sich eine tryptische Proteolyse und eine Messung per MALDI MS und MS/MS anschlossen. Mit dieser analytischen Strategie war es möglich, jede nicht-homologe Untereinheit nachzuweisen und 20 von 24 genombasierten Isoformen eindeutig zu identifizieren. Selbst kleine bzw. sehr hydrophobe Untereinheiten mit vielen Transmembranhelices konnten mit Hilfe dieser Methode analysiert werden. Die hohe Anzahl an präsenten, unterschiedlichen Isoformen und die vorherrschenden Verunreinigungen durch Fremdproteine (z.B. ATP-Synthase) könnten Indizien dafür sein, dass bis jetzt keine hinreichend stabile und reproduzierbare Enzympräparation gelungen ist, um eine Kristallstrukturanalyse durchzuführen. Im Allgemeinen kann der Ablauf eines solchen Proteomics-Experiments in drei Teile gegliedert werden: die Auftrennung eines Protein- oder Peptidgemischs zur Verringerung der Probenkomplexität, die Identifikation des Proteins per Massenspektrometrie und die damit verbundene bioinformatische Datenanalyse. Neben chromatographischen Methoden ist die Elektrophorese in Polyacrylamidgelen immer noch das am häufigsten angewandte Trennverfahren im Proteomics-Bereich. Vor der MS-Messung werden die aufgetrennten Proteine in der Regel direkt in der Gelmatrix verdaut. Die Qualität der Ergebnisse wird stark durch Proteinmenge und die auftretenden Probenverluste beeinflusst. Diese werden beispielsweise durch eine unzureichende Peptidextraktion aus dem Gel hervorgerufen. Im Rahmen dieser Dissertation wurde ein neues Gelsystem entwickelt, dass vor allem für die Proteolyseeffizienz, die Peptidextraktion und somit auch für die anschließende massenspektrometrische Messung von Vorteil ist. Das Monomer Acrylamid wird hierzu mit den beiden Quervernetzern N,N-Methylenbisacrylamid (MBA) und Ethylenglykoldiacrylat (EDA) polymerisiert. Es entsteht ein Gel, dessen Poren durch die basische Hydrolyse der Esterbindungen des EDAs vergrößert werden können, ohne die dreidimensionale Grundstruktur des Gels zu zerstören.   Die gemischten Gele mit MBA und EDA als Crosslinkern sind sowohl für Tris-Glycin- als auch Tris-Tricin-Puffersysteme einsetzbar. Die Evaluierung der Daten erfolgte meist gegen ein Standardgel mit T= 14% und C= 2,6%. Durch eine experimentell ermittelte Anpassung der Mischgele auf T+10% und C+45% mit einem MBA/EDA-Verhältnis von 0,5 verhalten sich die beiden Gelsysteme empirisch gleich und zeigen eine übereinstimmende elektrophoretische Trennung und Auflösung. Es gibt keine wesentlichen Nachteile in Bezug auf die Handhabung, die elektrophoretische Trennung und die anschließenden Analysen und Techniken, solange diese in sauren bis leicht basischen pH-Bereichen durchgeführt werden. So wurde das gemischte Gelsystem sowohl bei einer 2D IEF/SDS-PAGE als auch bei einem Western Blot-Experiment angewendet und für vollständig kompatibel befunden. Die gemessenen MS-Daten profitieren im Fall von Trypsin und Elastase erheblich von der besseren Zugänglichkeit des Enzyms zum Substratprotein und der verbesserten Peptidextraktion. Die Gelaufweitung führt zu signifikant besseren Ergebnissen, die größtenteils auf höhere S/N-Werte zurückzuführen sind. Die Signalintensitäten der Peptide sind um den Faktor 5 besser als die des Referenzgels. Der Nachweis von je 1 pmol der Proteine BSA, Serotransferrin und Alkoholdehydrogenase profitiert stark von den zusätzlich erhaltenen Daten, da die Zunahme an identifizierten Peptiden bei der PMF-Suche im Bereich von 40 bis 80% liegt. Auch bei geringen Proteinmengen wie 250 bzw. 50 fmol BSA ist die Anzahl der zugeordneten Signale um den Faktor 2-3 besser. Der in-Gel Verdau von 1 pmol Bacteriorhodopsin mit Elastase zeigt ebenfalls einen Anstieg der Peptidsignale um 60% im Vergleich zum Referenzgel. Da die Proteine im Gel alle mit kolloidalem Coomassie Brilliant Blue angefärbt wurden, kann davon ausgegangen werden, dass sich die guten MS-Ergebnisse auf jede mit diesem Farbstoff visualisierte Probe übertragen lassen. Für den Fluoreszenzfarbstoff RuPBS trifft dies ebenso zu, insgesamt wurden aber weniger Peptide als bei kolloidaler Coomassie Brilliant Blue-Färbung detektiert. Dementsprechend handelt es sich bei Acrylamidgelen mit MBA/EDA-Vernetzung um ein vielversprechendes alternatives Gelsystem, dass auf eine Vielzahl anderer Methoden angewendet werden kann.
Die vorliegende Arbeit analysierte die Behandlung von Patienten mit Infektionserkrankungen am Zentrum der Zahn-, Mund- und Kieferheilkunde des Klinikums der Johann Wolfgang Goethe-Universität, Frankfurt am Main (Carolinum). Dabei wurde vor allem untersucht, welche Auswirkungen die Reduzierung von Personalressourcen speziell für die Behandlung dieser Patienten ab dem Jahr 2000 hinsichtlich der Betreuung und Versorgung hatte. Die Studie war retrospektiv angelegt und wertete Daten aus den Jahren 1998 bis 2002 aus. Hierfür wurden alle im Archiv lagernden Karteikarten herangezogen und die Daten in eine dafür entwickelte FilemakerPro©-Datenbank übertragen. Im Untersuchungszeitraum nahmen 940 Patienten mit Infektionskrankheiten etwa 3700 Besuche wahr. Regelmäßig erschienen 25% der Patienten, auf sie entfielen 60% aller Besuche. Diese Gruppe wurde einer näheren Betrachtung unterzogen: Die Auswertung der erhobenen Daten zeigte, dass das Ziel der Absenkung der Patientenzahlen und die Anzahl der Behandlungstermine erreicht werden konnte, die systematische Betreuung der Patienten sich jedoch verschlechterte. Der Anteil der sanierten Patienten sank von 34% auf 18% ab, die Zahl der unsystematisch behandelten Patienten verdreifachte sich dagegen von 1999 auf 2000 und blieb bei diesem hohen Wert. Vorsorgebehandlungen nahmen maximal ein fünftel aller Behandlungen ein, mit abnehmender Systematik sank dieser Anteil gegen null. Begünstigender Faktor für eine Sanierung waren ein erstelltes OPG (ersatzweise ein Zahnfilmstatus) und die Erstellung einer Behandlungsplanung. Das Vorhandensein eines OPGs erhöhte aber nicht die Wahrscheinlichkeit für eine folgende Behandlungsplanung. Patienten die an das Carolinum von außerhalb überwiesen wurden, hatten eine größere Chance auf eine Sanierung. Letztlich wurden nur 4% aller regelmäßig erschienenen Patienten systematisch mit Recall betreut, zahnärztlich saniert wurden insgesamt jedoch 30% der behandelten Patienten. Entgegen allgemeiner Annahmen waren kurzfristig abgesagte oder nicht eingehaltene Termine die Ausnahme.
5-Lipoxygenase (5-LO) katalysiert die ersten beiden Schritte in der Biosynthese der Leukotriene, die an Reaktionen des Immunsystems beteiligt sind. Die 5-LO-Aktivität wird durch verschiedene Faktoren wie Ca2+, Phospholipide und den zellulären Redoxstatus beeinflusst. Die 5-LO besteht aus einer katalytischen und einer N-terminalen, C2-ähnlichen Domäne. Durch Oxidation des Eisens im aktiven Zentrum zur Fe3+-Form wird das Enzym aktiv. Die C2-ähnliche Domäne bindet Ca2+ und PC und ist für die Membranbindung der 5-LO verantwortlich. In der vorliegenden Arbeit wurde die Aktivierung der 5-LO durch das Diacylglycerid OAG untersucht. Bekannt war die Stimulation der Agonist-induzierten 5-LO-Aktivität in intakten Zellen durch OAG, die nicht auf den bekannten Aktivierungswegen wie Translokation, Phosphorylierung oder Ca2+-Mobilisierung beruht. Hier kann nun die direkte Aktivierung des 5-LO-Enzyms durch OAG in vitro gezeigt werden. Untersucht man den Einfluss von OAG auf die 5-LO-Aktivität in Anwesenheit von 1 mM Ca2+, lässt sich weder an Homogenat, S100 noch am partiell aufgereinigten Enzym aus PMNL ein Effekt beobachten. Entfernt man dagegen Ca2+ aus den Versuchsansätzen, induziert OAG (30 µM) bei Substratkonzentrationen unter 20 µM AA die 5-LO-Aktivität im S100 und am partiell aufgereinigten Enzym. Auch andere Glyceride wie DOG, OG und EAG aktivieren die 5-LO, nicht jedoch SAG. OAG stabilisiert die 5-LO-Aktivität vor der Hemmung durch die Glutathionperoxidase (GPx), dies vermögen ebenfalls andere Glyceride. Damit ähnelt der Einfluss von OAG auf die 5-LO dem bereits bekannten Effekt von Ca2+: es ist in der Lage, vor allem bei niedrigen Substratkonzentrationen die 5-LO-Produktmenge direkt zu erhöhen und kann die 5-LO-Aktivität gegen den inhibitorischen Effekt der Glutathionperoxidase (GPx) stabilisieren. Ähnlich wie Ca2+ scheint OAG die Affinität der 5-LO für das Substrat AA zu erhöhen und das Bedürfnis für aktivierende Hydroperoxide zu erniedrigen. Durch Untersuchungen im Rahmen dieser Arbeit kann eine Beteiligung der Ca2+-Bindungsstelle an der Interaktion zwischen 5-LO und OAG ausgeschlossen werden, da OAG auch an der loop2 mut-5LO die Aktivität zu steigern vermag. Der Anstieg der 5-LO-Produktbildung durch OAG in S100 und am partiell aufgereinigten 5-LO-Enzym lässt sich durch die Zugabe von PC und anderen Phospholipiden unterbinden. Damit erklärt sich gleichzeitig, weshalb OAG am Homogenat aus PMNL keine Effekte zeigt, da hier noch Zellmembran-Bestandteile enthalten sind. Der OAG-Effekt wird wohl über die drei Tryptophan-Reste Trp-13,-75 und -102 der Phospholipid-Bindungsstelle auf der C2-ähnlichen Domäne der 5-LO vermittelt. Dies zeigen auch Untersuchungen an der 3W mut-5LO, bei der die drei Tryptophan-Reste zu Alanin-Resten mutiert sind. Die Aktivität dieser Mutante lässt sich durch OAG unter den bereits beschriebenen Versuchsbedingungen nicht steigern. Ein weiterer Hinweis auf die Phospholipid-Bindungsstelle ist die Interaktion zwischen OAG und dem 5-LO-Inhibitor Hyperforin. Hyperforin selbst hemmt die 5-LO über diese Bindungsstelle, durch OAG wird der IC50-Wert von Hyperforin deutlich erhöht. Im Rahmen dieser Arbeit wurde ein Lipid Protein Overlay Assay für 5-LO ausgearbeitet, ein direkter Nachweis der Bindung zwischen OAG und 5-LO ist aber bisher nicht gelungen. OAG steigert nicht die Aktivität des 5-LO-Enzyms aus serumfrei kultivierten MM6-Zellen, BL41-E95-A Zellen und transfizierten HeLa-Zellen, auch die Produktmenge der Sojabohnen-LO kann nicht durch OAG beeinflusst werden. Untersucht man die Interaktion von OAG mit aufgereinigter regulatorischer Domäne (MBP-Fusionsprotein, MBP-5LO1-128), so zeigt sich eine weitere Steigerung der durch OAG-induzierten 5-LO-Aktivität, obwohl MBP-5LO1-128 bei höheren Konzentrationen eine Hemmung der 5-LO-Aktivität durch Reduktion der gebildeten 5-HPETE verursacht. Diese Ergebnisse lassen sich damit erklären, dass OAG das Bedürfnis der 5-LO für Hydroperoxide senkt und damit geringere Mengen an 5-HPETE zur Aktivierung der 5-LO ausreichen. Betrachtet man das 5-HETE/5-HPETE-Verhältnis, führt die Zugabe OAG in Abwesenheit von Ca2+ und bei 10 µg MBP-5LO1-128 zu einer geringen Abnahme des 5-HETE-Anteils. Im zweiten Teil der Arbeit wurden neue 5-LO-Inhibitoren identifiziert. Aus der Reihe der Pirinixinsäure-Derivate konnte durch entsprechende Modifikationen der potente 5-LO-Inhibitor LP 119 mit einem IC50-Wert von 0,6 µM in intakten PMNL-Zellen identifiziert werden. Durch systematisches Durchsuchen virtueller Datenbanken konnten mindestens zwei Substanzen gefunden werden, die sowohl an intakten Zellen wie auch am partiell aufgereinigten Enzym die 5-LO-Aktivität hemmen, weitere Untersuchungen ergaben, dass es sich wohl zumindest bei einer Strukturklasse um einen direkten 5-LO-Inhibitor handelt.
Die vorliegende Arbeit bietet zunächst einen weiteren Beweis für die Existenz des neutralen Heliumdimers. Darüber hinaus konnten zwei verschiedene Prozesse identifiziert werden, über die die Absorbtion eines Photons zur Ionisation beider Atome des Dimers über sehr große Abstände führen kann. Oberhalb einer Photonenenergie von 65,4 eV konnte ein ICD Prozess beobachtet werden, der über Photoionisation mit gleichzeitiger Anregung von einem der beiden Atome realisiert wird. Bei 77,86 eV konnte ICD über elektronisch angeregte Zustände bis n=6 nachgewiesen werden. In der KER-Verteilung konnten zudem Strukturen gefunden werden, die auf Vibrationsanregungen im Zwischenzustand des Dimer-Ions schließen lassen. Eine vollständig quantenmechanische Rechnung von Sisourat et al. konnte dies schließlich hervorragend bestätigen. Es konnte also ein direkter Blick auf die Vibrationswellenfunktionen des Systems erlangt werden. In anderen Systemen ist dies in der Regel nicht möglich, da sich alle Zustände üblicherweise zu einer strukturlosen Verteilung überlagern. Weiterhin konnte gezeigt werden, dass sich die Winkelverteilungen von ICD- und Photoelektronen in verschiedenen Bereichen des KER mitunter stark voneinander unterscheiden. Dies konnte auf die unterschiedliche Besetzung von verschiedenen Potentialkurven zurückgeführt werden. Unterhalb der Photonenenergieschwelle zur Anregung und Ionisation eines Heliumatoms konnte ein weiterer, zweistufiger Ionisationsmechanismus gefunden werden. Hier wird zunächst durch Photoionisation ein Elektron aus einem der beiden Atome im Dimer freigesetzt. Dieses Photoelektron kann nun am neutralen Atom gestreut werden und dabei ausreichend viel Energie übertragen, um dieses ebenfalls zu ionisieren. Es konnte gezeigt werden, dass der Prozess einer Abhängigkeit von der Polarisation der Synchrotronstrahlung unterliegt, die man für Photoionisation erwarten würde. Die Energie- und Winkelverteilungen der Elektronen konnten daher mit vorangegangenen Elektronenstoß-Experimenten verglichen werden. Die gute Übereinstimmung mit diesen Daten rechtfertigt eine anschauliche Sichtweise des Prozesses als Analogon zum klassischen Billiard-Stoß. Der Two-Step-Prozess wurde bisher zwar schon in vielen Systemen als theoretisches Modell zur Doppelionisation beschrieben, allerdings konnten die einzelnen Unterprozesse bisher nicht gesondert gemessen werden. Die großen Abstände im Heliumdimer ermöglichen erstmals eine deutliche Trennung in Photoionisation an einem Atom und Elektronenstoß (e,2e) am Nachbaratom. Der Two-Step-Prozess konnte außerdem dazu verwendet werden, die ungewöhnliche Grundzustandswellenfunktion des Heliumdimers zu experimentell zu bestätigen. Eine Analyse des gemessenen KER konnte dabei deutliche Abweichungen zu einer klassischen Theorie aufzeigen. Erst eine vollständig quantenmechanische Rechnung des Übergangs von Sisourat et al. konnte die Messdaten beschreiben.
Von einem darwinschen Standpunkt aus kritisiere ich, dass zwar viele Bausteine geliefert werden, es jedoch an einem Fundament fehlt, auf welchem mit diesen Steinen zu bauen sei. Die Begriffe „Recht“ und „Verhalten“ seien durchgängig unbefriedigend, wenn überhaupt, defi-niert. Unrecht und Normbruch würden nicht hinlänglich unterschieden. Das Verhältnis von Sein und Sollen bleibe unklar. Schließlich seien durchgängig Ausbeutung, Unterdrückung und Manipulation von Präferenzen kein Thema. Die psychoanalytische Perspektive der „gesellschaftlichen Produktion von Unbewusstheit“ (Erdheim) fehle gänzlich.
Ich kritisiere die Konzeption Amstutz’ aus einer Perspektive, die eine kulturelle Evolution im strikten Sinne als gegeben ansieht. Gemessen daran verspielt Amstutz den Nutzen evolutionären Denkens, indem er sich nur metaphorisch auf Evolution bezieht, ohne zugleich seinen Rechtsbegriff zu entwickeln. Das führt zu wissenschaftlich unbefriedigenden Aussagen, zumal saltationistische, quasi-lamarckistische und gruppenselektionistische Modelle genutzt werden, die weder für die biologische noch die kulturelle Evolution brauchbar sind.