Universitätspublikationen
Refine
Year of publication
Document Type
- Article (13741)
- Part of Periodical (3487)
- Doctoral Thesis (3332)
- Contribution to a Periodical (2163)
- Book (2111)
- Working Paper (1890)
- Preprint (1758)
- Review (1064)
- Report (909)
- Conference Proceeding (703)
Language
- English (17515)
- German (14018)
- Portuguese (231)
- Spanish (123)
- Italian (66)
- French (64)
- Multiple languages (64)
- Turkish (12)
- Ukrainian (10)
- slo (7)
Keywords
- Deutschland (132)
- COVID-19 (98)
- inflammation (96)
- Financial Institutions (92)
- ECB (69)
- Capital Markets Union (67)
- SARS-CoV-2 (64)
- Financial Markets (61)
- Adorno (58)
- Banking Regulation (52)
Institute
- Medizin (6689)
- Präsidium (5136)
- Physik (3598)
- Wirtschaftswissenschaften (2300)
- Gesellschaftswissenschaften (2021)
- Biowissenschaften (1773)
- Frankfurt Institute for Advanced Studies (FIAS) (1671)
- Sustainable Architecture for Finance in Europe (SAFE) (1405)
- Biochemie und Chemie (1400)
- Informatik (1393)
- Center for Financial Studies (CFS) (1266)
- Rechtswissenschaft (1060)
- Neuere Philologien (821)
- House of Finance (HoF) (807)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (735)
- Geschichtswissenschaften (726)
- Geowissenschaften (688)
- Biochemie, Chemie und Pharmazie (674)
- Philosophie (570)
- Kulturwissenschaften (531)
- Psychologie (483)
- E-Finance Lab e.V. (436)
- Universitätsbibliothek (422)
- Institut für Ökologie, Evolution und Diversität (405)
- Institut für Sozialforschung (IFS) (394)
- Senckenbergische Naturforschende Gesellschaft (394)
- Erziehungswissenschaften (377)
- Institut für Wirtschaft, Arbeit, und Kultur (IWAK) (368)
- Pharmazie (335)
- Sprach- und Kulturwissenschaften (312)
- Biodiversität und Klima Forschungszentrum (BiK-F) (292)
- Evangelische Theologie (275)
- Geographie (241)
- Psychologie und Sportwissenschaften (225)
- Geowissenschaften / Geographie (218)
- Sportwissenschaften (217)
- Informatik und Mathematik (207)
- Institute for Monetary and Financial Stability (IMFS) (205)
- Institut für sozial-ökologische Forschung (ISOE) (197)
- Mathematik (193)
- Exzellenzcluster Makromolekulare Komplexe (173)
- MPI für Biophysik (168)
- Sprachwissenschaften (159)
- MPI für Hirnforschung (134)
- Georg-Speyer-Haus (131)
- Sonderforschungsbereiche / Forschungskollegs (126)
- Buchmann Institut für Molekulare Lebenswissenschaften (BMLS) (109)
- Zentrum für Biomolekulare Magnetische Resonanz (BMRZ) (105)
- Ernst Strüngmann Institut (95)
- Zentrum für Arzneimittelforschung, Entwicklung und Sicherheit (ZAFES) (93)
- Philosophie und Geschichtswissenschaften (80)
- Institute for Law and Finance (ILF) (68)
- Katholische Theologie (64)
- Cornelia Goethe Centrum für Frauenstudien und die Erforschung der Geschlechterverhältnisse (CGC) (59)
- Deutsches Institut für Internationale Pädagogische Forschung (DIPF) (55)
- Foundation of Law and Finance (51)
- Hessische Stiftung für Friedens- und Konfliktforschung (HSFK) (48)
- MPI für empirische Ästhetik (44)
- Interdisziplinäres Zentrum für Ostasienstudien (IZO) (40)
- ELEMENTS (37)
- Gleichstellungsbüro (36)
- Fachübergreifend (35)
- Frobenius Institut (33)
- Europäische Akademie der Arbeit in der Universität Frankfurt am Main (32)
- Zentrum für Weiterbildung (31)
- Starker Start ins Studium: Qualitätspakt Lehre (30)
- Extern (29)
- Hochschulrechenzentrum (27)
- Zentrum für Interdisziplinäre Afrikaforschung (ZIAF) (26)
- LOEWE-Schwerpunkt Außergerichtliche und gerichtliche Konfliktlösung (25)
- studiumdigitale (25)
- Sigmund-Freud Institut – Forschungsinstitut fur Psychoanalyse und ihre Anwendungen (19)
- Universität des 3. Lebensalters e.V. (19)
- Akademie für Bildungsforschung und Lehrerbildung (bisher: Zentrum für Lehrerbildung und Schul- und Unterrichtsforschung) (18)
- Exzellenzcluster Herz-Lungen-System (18)
- Center for Membrane Proteomics (CMP) (17)
- Museum Giersch der Goethe Universität (17)
- Forschungskolleg Humanwissenschaften (16)
- Centre for Drug Research (15)
- Zentrum für Nordamerika-Forschung (ZENAF) (15)
- Center for Scientific Computing (CSC) (11)
- Interdisziplinäres Zentrum für Neurowissenschaften Frankfurt (IZNF) (9)
- keine Angabe Institut (9)
- LOEWE-Schwerpunkt für Integrative Pilzforschung (8)
- Forschungszentrum Historische Geisteswissenschaften (FHG) (7)
- Fritz Bauer Institut (7)
- Helmholtz International Center for FAIR (7)
- DFG-Forschergruppen (6)
- Goethe-Zentrum für Wissenschaftliches Rechnen (G-CSC) (6)
- Zentrum für Hochschulsport (ZfH) (6)
- Internationales Studienzentrum (4)
- Frankfurt MathFinance Institute (FMFI) (3)
- Institut für Religionsphilosophische Forschung (3)
- Schreibzentrum (3)
- Zentrale Einrichtung (3)
- (2)
- Akademie für Bildungsforschung und Lehrkräftebildung (2)
- Institut für Bienenkunde (2)
- Wilhelm-Merton-Zentrum (2)
- Diagnostic Center of Acute Leukemia (1)
- Exzellenzcluster (1)
- Fachübergreifende Einrichtungen (1)
- Forschungscluster (1)
- GRADE - Goethe Research Academy for Early Career Researchers (1)
- Katholische Hochschulgemeinde (KHG) (1)
- SFB 268 (1)
- Zentrum zur Erforschung der Frühen Neuzeit (Renaissance-Institut) (1)
- keine Angabe Fachbereich (1)
In bioinformatics, biochemical pathways can be modeled by many differential equations. It is still an open problem how to fit the huge amount of parameters of the equations to the available data. Here, the approach of systematically learning the parameters is necessary. In this paper, for the small, important example of inflammation modeling a network is constructed and different learning algorithms are proposed. It turned out that due to the nonlinear dynamics evolutionary approaches are necessary to fit the parameters for sparse, given data. Proceedings of the 15th IEEE International Conference on Tools with Artificial Intelligence - ICTAI 2003
The early prediction of mortality is one of the unresolved tasks in intensive care medicine. This contribution models medical symptoms as observations cased by transitions between hidden markov states. Learning the underlying state transition probabilities results in a prediction probability success of about 91%. The results are discussed and put in relation to the model used. Finally, the rationales for using the model are reflected: Are there states in the septic shock data?
In intensive care units physicians are aware of a high lethality rate of septic shock patients. In this contribution we present typical problems and results of a retrospective, data driven analysis based on two neural network methods applied on the data of two clinical studies. Our approach includes necessary steps of data mining, i.e. building up a data base, cleaning and preprocessing the data and finally choosing an adequate analysis for the medical patient data. We chose two architectures based on supervised neural networks. The patient data is classified into two classes (survived and deceased) by a diagnosis based either on the black-box approach of a growing RBF network and otherwise on a second network which can be used to explain its diagnosis by human-understandable diagnostic rules. The advantages and drawbacks of these classification methods for an early warning system are discussed.
In bioinformatics, biochemical pathways can be modeled by many differential equations. It is still an open problem how to fit the huge amount of parameters of the equations to the available data. Here, the approach of systematically learning the parameters is necessary. In this paper, for the small, important example of inflammation modeling a network is constructed and different learning algorithms are proposed. It turned out that due to the nonlinear dynamics evolutionary approaches are necessary to fit the parameters for sparse, given data. Keywords: model parameter adaption, septic shock. coupled differential equations, genetic algorithm.
The selection of features for classification, clustering and approximation is an important task in pattern recognition, data mining and soft computing. For real-valued features, this contribution shows how feature selection for a high number of features can be implemented using mutual in-formation. Especially, the common problem for mutual information computation of computing joint probabilities for many dimensions using only a few samples is treated by using the Rènyi mutual information of order two as computational base. For this, the Grassberger-Takens corre-lation integral is used which was developed for estimating probability densities in chaos theory. Additionally, an adaptive procedure for computing the hypercube size is introduced and for real world applications, the treatment of missing values is included. The computation procedure is accelerated by exploiting the ranking of the set of real feature values especially for the example of time series. As example, a small blackbox-glassbox example shows how the relevant features and their time lags are determined in the time series even if the input feature time series determine nonlinearly the output. A more realistic example from chemical industry shows that this enables a better ap-proximation of the input-output mapping than the best neural network approach developed for an international contest. By the computationally efficient implementation, mutual information becomes an attractive tool for feature selection even for a high number of real-valued features.
In its first part, this contribution reviews shortly the application of neural network methods to medical problems and characterizes its advantages and problems in the context of the medical background. Successful application examples show that human diagnostic capabilities are significantly worse than the neural diagnostic systems. Then, paradigm of neural networks is shortly introduced and the main problems of medical data base and the basic approaches for training and testing a network by medical data are described. Additionally, the problem of interfacing the network and its result is given and the neuro-fuzzy approach is presented. Finally, as case study of neural rule based diagnosis septic shock diagnosis is described, on one hand by a growing neural network and on the other hand by a rule based system. Keywords: Statistical Classification, Adaptive Prediction, Neural Networks, Neurofuzzy, Medical Systems
In contrast to the symbolic approach, neural networks seldom are designed to explain what they have learned. This is a major obstacle for its use in everyday life. With the appearance of neuro-fuzzy systems which use vague, human-like categories the situation has changed. Based on the well-known mechanisms of learning for RBF networks, a special neuro-fuzzy interface is proposed in this paper. It is especially useful in medical applications, using the notation and habits of physicians and other medically trained people. As an example, a liver disease diagnosis system is presented.
The prevention of credit card fraud is an important application for prediction techniques. One major obstacle for using neural network training techniques is the high necessary diagnostic quality: Since only one financial transaction of a thousand is invalid no prediction success less than 99.9% is acceptable. Due to these credit card transaction proportions complete new concepts had to be developed and tested on real credit card data. This paper shows how advanced data mining techniques and neural network algorithm can be combined successfully to obtain a high fraud coverage combined with a low false alarm rate.
This paper describes the use of a Radial Basis Function (RBF) neural network in the approximation of process parameters for the extrusion of a rubber profile in tyre production. After introducing the rubber industry problem, the RBF network model and the RBF net learning algorithm are developed, which uses a growing number of RBF units to compensate the approximation error up to the desired error limit. Its performance is shown for simple analytic examples. Then the paper describes the modelling of the industrial problem. Simulations show good results, even when using only a few training samples. The paper is concluded by a discussion of possible systematic error influences, improvements and potential generalisation benefits. Keywords: Adaptive process control; Parameter estimation; RBF-nets; Rubber extrusion
Diese Arbeit plädiert für eine rationale Behandlung von Patientendaten und untersucht dazu die Analyse der Daten mit Hilfe neuronale Netze etwas näher. Erfolgreiche Beispielanwendungen zeigen, daß die menschlichen Diagnosefähigkeiten deutlich schlechter sind als neuronale Diagnosesysteme. Für das Beispiel der neueren Architektur mit RBF-Netzen wird die Funktionalität näher erläutert und gezeigt, wie menschliche und neuronale Expertise miteinander gekoppelt werden kann. Der Ausblick deutet Anwendungen und Praxisproblematik derartiger Systeme an.
The encoding of images by semantic entities is still an unresolved task. This paper proposes the encoding of images by only a few important components or image primitives. Classically, this can be done by the Principal Component Analysis (PCA). Recently, the Independent Component Analysis (ICA) has found strong interest in the signal processing and neural network community. Using this as pattern primitives we aim for source patterns with the highest occurrence probability or highest information. For the example of a synthetic image composed by characters this idea selects the salient ones. For natural images it does not lead to an acceptable reproduction error since no a-priori probabilities can be computed. Combining the traditional principal component criteria of PCA with the independence property of ICA we obtain a better encoding. It turns out that the Independent Principal Components (IPC) in contrast to the Principal Independent Components (PIC) implement the classical demand of Shannon’s rate distortion theory.
This paper proposes a new approach for the encoding of images by only a few important components. Classically, this is done by the Principal Component Analysis (PCA). Recently, the Independent Component Analysis (ICA) has found strong interest in the neural network community. Applied to images, we aim for the most important source patterns with the highest occurrence probability or highest information called principal independent components (PIC). For the example of a synthetic image composed by characters this idea selects the salient ones. For natural images it does not lead to an acceptable reproduction error since no a-priori probabilities can be computed. Combining the traditional principal component criteria of PCA with the independence property of ICA we obtain a better encoding. It turns out that this definition of PIC implements the classical demand of Shannon’s rate distortion theory.
This paper describes the problems and an adaptive solution for process control in rubber industry. We show that the human and economical benefits of an adaptive solution for the approximation of process parameters are very attractive. The modeling of the industrial problem is done by the means of artificial neural networks. For the example of the extrusion of a rubber profile in tire production our method shows good results even using only a few training samples.
In this paper we regard first the situation where parallel channels are disturbed by noise. With the goal of maximal information conservation we deduce the conditions for a transform which "immunizes" the channels against noise influence before the signals are used in later operations. It shows up that the signals have to be decorrelated and normalized by the filter which corresponds for the case of one channel to the classical result of Shannon. Additional simulations for image encoding and decoding show that this constitutes an efficient approach for noise suppression. Furthermore, by a corresponding objective function we deduce the stochastic and deterministic learning rules for a neural network that implements the data orthonormalization. In comparison with other already existing normalization networks our network shows approximately the same in the stochastic case but, by its generic deduction ensures the convergence and enables the use as independent building block in other contexts, e.g. whitening for independent component analysis. Keywords: information conservation, whitening filter, data orthonormalization network, image encoding, noise suppression.
Im Zeitraum 1. 11. 1993 bis 30. 3. 1997 wurden 1149 allgemeinchirurgische Intensivpatienten prospektiv erfaßt, von denen 114 die Kriterien des septischen Schocks erfüllten. Die Letalität der Patienten mit einem septischen Schock betrug 47,3%. Nach Training eines neuronalen Netzes mit 91 (von insgesamt n = 114) Patienten ergab die Testung bei den verbleibenden 23 Patienten bei der Berücksichtigung von Parameterveränderungen vom 1. auf den 2. Tag des septischen Schocks folgendes Ergebnis: Alle 10 verstorbenen Patienten wurden korrekt als nicht überlebend vorhergesagt, von den 13 Überlebenden wurden 12 korrekt als überlebend vorhergesagt (Sensitivität 100%; Spezifität 92,3%).
This paper describes the use of a radial basis function (RBF) neural network. It approximates the process parameters for the extrusion of a rubber profile used in tyre production. After introducing the problem, we describe the RBF net algorithm and the modeling of the industrial problem. The algorithm shows good results even using only a few training samples. It turns out that the „curse of dimensions“ plays an important role in the model. The paper concludes by a discussion of possible systematic error influences and improvements.
The paper focuses on the division of the sensor field into subsets of sensor events and proposes the linear transformation with the smallest achievable error for reproduction: the transform coding approach using the principal component analysis (PCA). For the implementation of the PCA, this paper introduces a new symmetrical, lateral inhibited neural network model, proposes an objective function for it and deduces the corresponding learning rules. The necessary conditions for the learning rate and the inhibition parameter for balancing the crosscorrelations vs. the autocorrelations are computed. The simulation reveals that an increasing inhibition can speed up the convergence process in the beginning slightly. In the remaining paper, the application of the network in picture encoding is discussed. Here, the use of non-completely connected networks for the self-organized formation of templates in cellular neural networks is shown. It turns out that the self-organizing Kohonen map is just the non-linear, first order approximation of a general self-organizing scheme. Hereby, the classical transform picture coding is changed to a parallel, local model of linear transformation by locally changing sets of self-organized eigenvector projections with overlapping input receptive fields. This approach favors an effective, cheap implementation of sensor encoding directly on the sensor chip. Keywords: Transform coding, Principal component analysis, Lateral inhibited network, Cellular neural network, Kohonen map, Self-organized eigenvector jets.
After a short introduction into traditional image transform coding, multirate systems and multiscale signal coding the paper focuses on the subject of image encoding by a neural network. Taking also noise into account a network model is proposed which not only learns the optimal localized basis functions for the transform but also learns to implement a whitening filter by multi-resolution encoding. A simulation showing the multi-resolution capabilitys concludes the contribution.
We present a framework for the self-organized formation of high level learning by a statistical preprocessing of features. The paper focuses first on the formation of the features in the context of layers of feature processing units as a kind of resource-restricted associative multiresolution learning We clame that such an architecture must reach maturity by basic statistical proportions, optimizing the information processing capabilities of each layer. The final symbolic output is learned by pure association of features of different levels and kind of sensorial input. Finally, we also show that common error-correction learning for motor skills can be accomplished also by non-specific associative learning. Keywords: feedforward network layers, maximal information gain, restricted Hebbian learning, cellular neural nets, evolutionary associative learning
One of the most interesting domains of feedforward networks is the processing of sensor signals. There do exist some networks which extract most of the information by implementing the maximum entropy principle for Gaussian sources. This is done by transforming input patterns to the base of eigenvectors of the input autocorrelation matrix with the biggest eigenvalues. The basic building block of these networks is the linear neuron, learning with the Oja learning rule. Nevertheless, some researchers in pattern recognition theory claim that for pattern recognition and classification clustering transformations are needed which reduce the intra-class entropy. This leads to stable, reliable features and is implemented for Gaussian sources by a linear transformation using the eigenvectors with the smallest eigenvalues. In another paper (Brause 1992) it is shown that the basic building block for such a transformation can be implemented by a linear neuron using an Anti-Hebb rule and restricted weights. This paper shows the analog VLSI design for such a building block, using standard modules of multiplication and addition. The most tedious problem in this VLSI-application is the design of an analog vector normalization circuitry. It can be shown that the standard approaches of weight summation will not give the convergence to the eigenvectors for a proper feature transformation. To avoid this problem, our design differs significantly from the standard approaches by computing the real Euclidean norm. Keywords: minimum entropy, principal component analysis, VLSI, neural networks, surface approximation, cluster transformation, weight normalization circuit.
It is well known that artificial neural nets can be used as approximators of any continuous functions to any desired degree and therefore be used e.g. in high - speed, real-time process control. Nevertheless, for a given application and a given network architecture the non-trivial task remains to determine the necessary number of neurons and the necessary accuracy (number of bits) per weight for a satisfactory operation which are critical issues in VLSI and computer implementations of nontrivial tasks. In this paper the accuracy of the weights and the number of neurons are seen as general system parameters which determine the maximal approximation error by the absolute amount and the relative distribution of information contained in the network. We define as the error-bounded network descriptional complexity the minimal number of bits for a class of approximation networks which show a certain approximation error and achieve the conditions for this goal by the new principle of optimal information distribution. For two examples, a simple linear approximation of a non-linear, quadratic function and a non-linear approximation of the inverse kinematic transformation used in robot manipulator control, the principle of optimal information distribution gives the the optimal number of neurons and the resolutions of the variables, i.e. the minimal amount of storage for the neural net. Keywords: Kolmogorov complexity, e-Entropy, rate-distortion theory, approximation networks, information distribution, weight resolutions, Kohonen mapping, robot control.
It is well known that artificial neural nets can be used as approximators of any continous functions to any desired degree. Nevertheless, for a given application and a given network architecture the non-trivial task rests to determine the necessary number of neurons and the necessary accuracy (number of bits) per weight for a satisfactory operation. In this paper the problem is treated by an information theoretic approach. The values for the weights and thresholds in the approximator network are determined analytically. Furthermore, the accuracy of the weights and the number of neurons are seen as general system parameters which determine the the maximal output information (i.e. the approximation error) by the absolute amount and the relative distribution of information contained in the network. A new principle of optimal information distribution is proposed and the conditions for the optimal system parameters are derived. For the simple, instructive example of a linear approximation of a non-linear, quadratic function, the principle of optimal information distribution gives the the optimal system parameters, i.e. the number of neurons and the different resolutions of the variables.
Clathrates are candidate materials for thermoelectric applications because of a number of unique properties. The clathrate I phases in the Ba-Ni-Ge ternary system allow controlled variation of the charge carrier concentration by adjusting the Ni content. Depending on the Ni content, the physical properties vary from metal-like to insulator-like and show a transition from p-type to n-type conduction. Here we present first results on the characterization of millimeter-sized single crystals grown by the Bridgman technique. Single crystals with a composition of Ba8Ni3.5Ge42.1h0.4 show metallic behavior (dp/dT > 0) albeit with high resistivity at room temperature [p (300 K) = 1 mOhm cm]. The charge carrier concentration at 300 K, as determined from Hall-effect measurements, is 2.3 e-/unit cell. The dimensionless thermoelectric figure of merit estimated at 680 K is ZT ~ 0.2. Keywords Clathrates - thermoelectric material - intermetallic compound - nickel
We suggest a new method to compute the spectrum and wave functions of excited states. We construct a stochastic basis of Bargmann link states, drawn from a physical probability density distribution and compute transition amplitudes between stochastic basis states. From such transition matrix we extract wave functions and the energy spectrum. We apply this method toU(1)2+1 lattice gauge theory. As a test we compute the energy spectrum, wave functions and thermodynamical functions of the electric Hamiltonian and compare it with analytical results. We find excellent agreement. We observe scaling of energies and wave functions in the variable of time. We also present first results on a small lattice for the full Hamiltonian including the magnetic term.
Central elements of the Bologna declaration have been implemented in a huge variety of curricula in humanities, social sciences, natural sciences and engineering sciences at German universities. Overall the results have been nothing less than disastrous. Surprisingly, this seems to be the perfect time for German universities to talk about introducing a curriculum that is fully compatible with the Bologna declaration for medical education as well. However, German medical education does not have problems the Bologna declaration is intended to solve, such as quality, mobility, internationalization and employability. It is already in the Post-Bologna age.
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Ein wesentliches Ziel der modernen Perforatorlappen vom Unterbauch (DIEP-flap) für die Brustrekonstruktion nach Mammaamputation ist die Schonung der Rektusmuskulatur. Der Funktionserhalt der Muskulatur ist abhängig von der Präparationstechnik. In unserer Studie wird die Interaktion zwischen der Muskel- und Nervendurchtrennung und der postoperativen Muskelfunktion untersucht. Material und Methoden: Unser Patientenkollektiv umfasst 42 Patienten. Im Zeitraum von 6/04 bis 06/07 wurden 44 DIEP-Lappen an unserer Klink nach dem gleichen operativen Standard von unterschiedlichen Operateuren zur Brustrekonstruktion transferiert. Die Standards beinhalten die beidseitige Präparation der Perforatorgefäße des Unterbauches, der SIEA-Gefäße, die Auswahl der 2–4 kräftigsten Perforatoren einer Seite und die schonende Präparation der Rektusmuskulatur und der motorischen Nervenäste.In einer prospektiven monozentrischen Studie haben wir die Rektusmuskulatur präoperativ und 6 Monate postoperativ untersucht. Für die Funktionsanalyse wurde sowohl die Myosonografie der Rektusmuskulatur als auch eine klinischen Untersuchung angewandt. Intraoperativ wurde die Anzahl und Lokalisation der Perforatoren, die Länge der gespreizten Muskulatur, die Länge der durchtrennten Muskulatur und die Anzahl und Lokalisation der durchtrennten intramuskulären Nerven in einer Skizze eingetragen. Die Relation zwischen der intraoperativen Muskel- und Nervenschädigung und der postoperativen Funktion wurde analysiert. Ergebnisse: Bei der Hebung des DIEP – flaps wurden im Durchschnitt 10,8 cm Muskulatur gespreizt, 8,2 cm Muskulatur getunnelt und 2,5 cm Muskulatur durchtrennt. In 41% (18 Pat) wurde 1 motorischer Nervenast durchtrennt, in 27,3% (12 Pat) waren es 2 und in 13,6% (6 Pat) 3 Nervenäste. Bei der klinischen Untersuchung 6 Monate postoperativ hatten 8 Patientinnen noch funktionelle Störungen beim Heben schwerer Gegenstände. Myosonografisch fand sich bei 3 Patientinnen eine Funktionsminderung: 1 vollständiger Funktionsverlust der Muskulatur mit Relaxatio, 2 relevante Minderungen der Kontraktilität Bei keiner Patientin fand sich eine Bauchwandhernie. Bei allen Patientinnen mit einer Beeinträchtigung der Muskulatur waren mind. 2 motorische Nervenäste durchtrennt worden. Schlussfolgerung: Die klinische und myosonografische Funktionsanalyse der Bauchwand ermöglicht die Erstellung von Standards zur verbesserten Operationstechnik. Unsere Ergebnisse zeigen, dass die Durchtrennung von 2 oder mehr motorischen Nervenästen vermieden werden muß. Die Länge der durchtrennten und gespreizten Muskulatur ist dagegen von geringerer Bedeutung.
Einleitung: Die pathologische Stimulierbarkeit von Serum-Calcitonin (CT) im relativ niedrigen Bereich (über 100 bis 300 pg/ml) trennt nicht hinreichend zwischen C-Zell-Hyperplasie (CCH) und C-Zell-(Mikro-)Karzinom (CCC), bei Überwiegen der Fälle mit CCH. Der Schilddrüsenisthmus ist frei von C-Zellen (Lit. mult., eigene Studie). Dies führte zur Methode der ITBL , welche nun an einer größeren prospektiv dokumentierten Serie von Patienten evaluiert wird.
Material und Methoden: 102 Patienten mit präoperativ gering bis mäßig erhöhtem CT (stim.≥100 ≤400 pg/ml) wurden mit der Intention zur ITBL operiert. Bei 30 erfolgte die Komplettierung zur totalen Thyreoidektomie (TTX), davon 27 in gleicher Sitzung, im Fall von Malignität unter Einschluss der systematischen Lymphknotendissektion (LNX). Gründe zur Komplettierung waren Mikrokarzinome (12 medulläre, 7 differenzierte) oder benigne Isthmusknoten (n=11).
Ergebnisse: Bei allen 72 Patienten mit definitiver ITBL (darunter 2 Mikro-CCC, übrige CCH) lag, ebenso wie bei den 30 Patienten mit TTX, das postoperative CT unter der Messgrenze (unter 2 pg/ml), mit einer Ausnahme (3 pg/ml, nicht stimulierbar); maximal stim. CT war bei 5 der 72 Patienten im unteren Normbereich messbar (3 – 4,6 pg/ml), bei den übrigen ebenfalls unter der Messgrenze. Alle 102 Patienten waren "biochemisch geheilt".
Schlussfolgerung: Die ITBL hat sich mit hinreichender Sicherheit als optimale Operationsmethode für Fälle mit CCH erwiesen und ist bzgl. ihrer Radikalität der TTX gleichwertig, unter Belassung eines gesunden Schilddrüsenrestes (Isthmus) von funktioneller Relevanz (2 – 5 g).
Die Virtuelle Fachbibliothek Biologie (www.vifabio.de) bündelt die Recherche nach wissenschaftlich hochwertigen Quellen aus Bibliotheken, Aufsatzbanken und Internet. Zentrales Element von vifabio ist dabei der Virtuelle Katalog: Mit einer Suchanfrage werden mehrere Kataloge zoologisch bzw. ornithologisch relevanter Bibliotheken, Zeitschriftendatenbanken wie Zoological Record (Nationallizenz 1864 bis 2007 für Nutzer in akademischen Einrichtungen), BioLIS und der Aufsatzkatalog OLC, sowie Landesbibliographien und der Internetquellen-Führer von vifabio durchsucht. Verlinkungen zur Elektronischen Zeitschriftenbibliothek Regensburg (EZB), zum Lieferdienst subito sowie zum Karlsruher Virtuellen Katalog (KVK) erleichtern den Zugang zum Volltext oder zum gedruckten Exemplar. Weitere Module von vifabio wie der Internetquellen-Führer bzw. der Datenbank-Führer eröffnen zusätzliche Rechercheoptionen.
Towards correctness of program transformations through unification and critical pair computation
(2010)
Correctness of program transformations in extended lambda-calculi with a contextual semantics is usually based on reasoning about the operational semantics which is a rewrite semantics. A successful approach is the combination of a context lemma with the computation of overlaps between program transformations and the reduction rules, which results in so-called complete sets of diagrams. The method is similar to the computation of critical pairs for the completion of term rewriting systems. We explore cases where the computation of these overlaps can be done in a first order way by variants of critical pair computation that use unification algorithms. As a case study of an application we describe a finitary and decidable unification algorithm for the combination of the equational theory of left-commutativity modelling multi-sets, context variables and many-sorted unification. Sets of equations are restricted to be almost linear, i.e. every variable and context variable occurs at most once, where we allow one exception: variables of a sort without ground terms may occur several times. Every context variable must have an argument-sort in the free part of the signature. We also extend the unification algorithm by the treatment of binding-chains in let- and letrec-environments and by context-classes. This results in a unification algorithm that can be applied to all overlaps of normal-order reductions and transformations in an extended lambda calculus with letrec that we use as a case study.
Die Allmacht der göttlichen Gnade in der Gaudiya-Vaisnava-Theologie Srila Bhaktivinoda Thakuras
(2010)
Yajnavalkya : seine Philosophie – seine Soteriologie ; Klaus Mylius zum 80. Geburtstag gewidmet
(2010)
Measuring confidence and uncertainty during the financial crisis : evidence from the CFS survey
(2010)
The CFS survey covers individual situations of banks and other companies of the financial sector during the financial crisis. This provides a rare possibility to analyze appraisals, expectations and forecast errors of the core sector of the recent turmoil. Following standard ways of aggregating individual survey data, we first present and introduce the CFS survey by comparing CFS indicators of confidence and predicted confidence to ifo and ZEW indicators. The major contribution is the analysis of several indicators of uncertainty. In addition to well established concepts, we introduce innovative measures based on the skewness of forecast errors and on the share of ‘no response’ replies. Results show that uncertainty indicators fit quite well with pattern of real and financial time series of the time period 2007 to 2010. Business Sentiment , Financial Crisis , Survey Indicator , Uncertainty
This paper provides theory as well as empirical results for pre-averaging estimators of the daily quadratic variation of asset prices. We derive jump robust inference for pre-averaging estimators, corresponding feasible central limit theorems and an explicit test on serial dependence in microstructure noise. Using transaction data of different stocks traded at the NYSE, we analyze the estimators’ sensitivity to the choice of the pre-averaging bandwidth and suggest an optimal interval length. Moreover, we investigate the dependence of pre-averaging based inference on the sampling scheme, the sampling frequency, microstructure noise properties as well as the occurrence of jumps. As a result of a detailed empirical study we provide guidance for optimal implementation of pre-averaging estimators and discuss potential pitfalls in practice. Quadratic Variation , MarketMicrostructure Noise , Pre-averaging , Sampling Schemes , Jumps
Nahrungsmittelallergikern steht aufgrund inakzeptabler Nebenwirkungen bei der spezifischen Immuntherapie zurzeit noch keine kausale Therapie dieser Erkrankung zur Verfügung. Demzufolge bleibt die Vermeidung der entsprechenden Lebensmittel für Nahrungsmittelallergiker der einzige Weg möglicherweise lebensbedrohlichen allergischen Reaktionen zu entgehen. Ziel dieser Arbeit war es, das Potential eines viralen Vektors für die Verwendung bei der spezifischen Immuntherapie der Lebensmittelallergie zu untersuchen. Die Überlegung dahinter war, das Risiko eines anaphylaktischen Schocks, der bei Injektion eines Allergens immer gegeben ist, durch intrazelluläre Expression des Proteins über das rekombinante Virus zu verringern. Zusätzlich dazu bringt das modifizierte Vacciniavirus Ankara (MVA) ideale Voraussetzungen für eine Allergievakzine mit: Die Infektion mit MVA führt zu einer stark Th1-gerichteten Immunantwort gegen die viral exprimierte Proteine, die möglicherweise die allergische Th2-gerichtete Immunantwort modulieren kann. Die prophylaktische Immunisierung mit MVA-OVA im Mausmodell der systemischen Sensibilisierung gegen Ovalbumin (OVA) führte dosisabhängig zur Suppression der spezifischen IgE-Antwort und somit zum Schutz vor allergischer Sensibilisierung. Zusätzlich konnte nachgewiesen werden, dass die Vakzinierung mit MVA-OVA eine dauerhafte spezifische IgG-Antwort induziert. Diese Daten unterstützen das Konzept einer Modulation der Sensibilisierung durch MVA-Vakzine. Weiterhin wurden zwei rekombinante Vakzinen generiert, mittels derer entweder das Tropomyosin aus Garnelen (Pen a 1) oder das Lipid-Transfer-Protein aus Haselnuss (Cor a 8) intrazellulär exprimiert werden konnte. Dass die Sensibilisierung gegen diese Allergene häufig mit schweren allergischen Reaktionen korreliert, unterstreicht die Notwendigkeit einer verbesserten Immuntherapie in diesem Bereich. Während MVA-Pen a 1 in ausreichender Menge und Qualität für die Verwendung im Mausmodell hergestellt werden konnte, gelang es nicht, eine homogene Population von MVA-Cor a 8 zu gewinnen, in der das Selektionsgen K1L nicht mehr vorhanden war. Parallel zur Virusherstellung wurden Mausmodelle der Sensibilisierung gegen Cor a 8 und Pen a 1 entwickelt. Vergleiche unterschiedlicher Mausstämme ergaben, dass sich Mäuse des Stammes CBA/J am empfänglichsten für eine systemische Sensibilisierung mit Cor a 8 sind. Aufgrund von Erfahrungen zur Sensibilisierung gegen Pen a 1 wurden Mäuse des Stammes C3H/HeJ bei der Etablierung eines Garnelenallergiemodells verwendet. Es zeigte sich, dass durch die intragastrale Applikation von 0,1 mg Pen a 1 sowie Choleratoxin als Adjuvanz (drei Gaben in dreiwöchigem Abstand), gefolgt von einer systemischen Gabe des Allergens mit Aluminiumhydroxid eine spezifische Sensibilisierung hervorgerufen werden konnte, die nach Exposition mit Pen a 1 zu allergischen Symptomen führte. Auch in diesem Modell bot die prophylaktische Immunisierung mit MVA-Pen a 1 Schutz vor Pen a 1spezifischer Sensibilisierung. Um die therapeutische Effektivität der Vakzine ermitteln zu können, muss die begonnene Etablierung eines Allergiemodells mit symptomauslösenden Provokationen und immunologischen Analysen weitergeführt werden. Der in dieser Studie beobachtete starke schützende Effekt einer Vakzinierung mit MVA vor allergischer Sensibilisierung und das sehr gute Sicherheitsprofil dieses Vektors in klinischen Studien zu anderen Erkrankungen belegt die Möglichkeit einer Verwendung von MVA zur erfolgreichen spezifischen Immuntherapie der Lebensmittelallergie.
Einleitung: Der Schlauchmagen (Sleeve Gastrectomy) wurde zunächst als erster Teil der biliopankreatischen Diversion mit Duodealswitch eingeführt, um das operative Risiko durch eine Zweischritt-Therapie zu senken. Zunehmend wird das Verfahren nun auch als eigeneständige Operation zur Gewichtsreduktion eingesetzt, obwohl noch keine Langzeitergebnisse vorliegen.
Material und Methoden: Im Zeitraum von 03/2001 bis 03/2007 wurden 120 Patienten (mittleres Alter: 40,3 Jahre; Geschlecht : 86 Frauen, 34 Männer ; Mittelwerte für Gewicht (179,8 kg), Körperlänge (1,72 m), BMI (60,7 kg/m2)Übergewicht (117,1 kg)mit einem laparoskopischen Schlauchmagenbildung behandelt. Die Ausgangssituation war zwischen den Gruppen nicht verschieden (Pearson). Bei 106 der Patienten war ein BPD-DS geplant, der in zwei Schritten erfolgen sollte. 6 Patienten hatten bereits vorher ein Magenband. In der Gruppe A (n=25) erfolgte keine Kalibration des Schlauches mit Hilfe einer Sonde. In Gruppe B (n=32) wurde eine 44 French und in Gruppe C (n=63) eine 33 French im Durchmesser starke Sonde zur Kalibration eingesetzt.
Ergebnisse: Intraoperativ wurden durch Volumenmessung über die Sonde die Schlauchvolumina mit einer hohen Varianz gemessen (A: 149,0 ml, SD: 15,2; B:117,4 ml, SD:34,8; C: 78,3 ml,SD: 17,9). Die Unterschiede waren statistisch signifikant (p<0,01; eta2=0,61). Besonders deutlich waren die Unterschiede im resezierten Magenvolumen (A:490,2 ml; B 732,7 ml; C:1156,1 ml). Da statistisch keine Abhängigkeit zwischen BMI und Magenvolumen nachgewiesen w erden konnte, zeigt sich die Ungenauigkeit der Schlauchmagenmessung gegenüber der Messung des resezierten Magenvolumens. Ergebnisse der Gewichtsreduktion zeigen eine Abhängigkeit von der Kalibration des Magenschlauches und des resezierten Magen-Volumens. Der Gewichtsverlust beträgt im Gesamtpatientengut und zeigt ab dem 3. Postoperativen Jahr eine Tendenz zum Wiederanstieg des Gewichtes. Eine unterlassene Kalibration und ein Volumen von weniger als 500 cm3 für den entfernten Magen sind mit einem Gewichtsanstieg spätestens nach 2- 3 Jahre verbunden. Der Verlust von 20 BMI-Punkten wird nach 2 Jahren erreicht.
Schlussfolgerung: Die Schlauchmagenbildung ist ein restriktives Verfahren, dass bei einer Kalibration eines engen Magenschlauches (32 French) und einem resezierten Magenvolumen von mindestens 500 eine sehr gute Gewichtsreduktion erzielt, die sich bei dem EWL zwischen de Ergebnissen des Magenbandes und des Magenbypass bewegt. Durch Anpassung der Ernährungsgewohnheiten kann es wie bei allen pur restriktiven Verfahren zu einem Wiederanstieg des Körpergewichtes.
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Über 4 Millionen Menschen leben in Deutschland schätzungsweise mit chronischen Wunden. Aufgrund der demographischen Entwicklung unserer Gesellschaft ist mit einem weiteren Anstieg der zu nicht, oder nur zögerlich heilenden Wunden führenden Erkrankungen diabetisches Fußsyndrom, chronisch venöse Insuffizienz und pAVK auszugehen. Dennoch ist die moderne hydroaktive Wundbehandlung in Deutschland nicht flächendeckend etabliert. Gründe hierfür liegen unter anderem in dem unüberschaubaren Produktsortiment, der unzureichenden Vergütung vor allem im ambulanten Versorgungssektor und in der mangelhaften ärztlichen Ausbildung in Bezug auf Wundtherapie. Ein standardisiertes Wundbehandlungsschema erleichtert die stadiengerechte Anwendung moderner Wundauflagen und dient als nachvollziehbare Entscheidungsgrundlage in der Auswahl der erforderlichen Wundprodukte. Material und Methoden: Anhand eines Bogens werden vier Kriterien (Wundstadium, Wundexsudation, Wundtiefe und Wundinfektion) zur Beurteilung einer Wunde erfasst. Die fotographische Abbildung der verschiedenen Wundstadien erlaubt eine sichere visuelle Zuordnung durch den Therapeuten. Nach Analyse dieser S.E.T.I. Kriterien ergibt sich eine eindeutige stadiengerechte Produktzuordnung, die auch dem weniger geübten eine sichere Anwendung der verschiedenen Produktgruppen ermöglicht. Ergebnisse: Dieser Behandlungsstandard wurde zwischenzeitlich an 3 Kliniken der Maximalversorgung und in einem integrierten Versorgungsmodell zum diabetischen Fußsyndrom etabliert und stellt einen Bestandteil für ein weiteres IV Modell zur pAVK dar. Neben ökonomischen Vorteilen (reduzierte Lagerhaltungskosten, Straffung des Produktsortiments, günstigere Bezugskonditionen) lässt sich eine Verbesserung in der Behandlungsqualität, eine verkürzte stationäre Behandlungsdauer sowie eine vereinfachte Umsetzung einer sektorenübergreifenden Wundversorgung erzielen. Schlussfolgerung: Die Anwendung eines Therapiestandards für die stadiengerechte Behandlung chronischer Wunden ermöglicht eine Anwenderunabhängige gleich bleibend hohe Qualität sowie eine wesentlich vereinfachte Orientierung in dem Produktsortiment. Hierdurch wird weiterhin ein Beitrag zur Schnittstellenoptimierung zwischen dem stationären und ambulanten Versorgungssektor bei chronischen Wunden geleistet. Ein verbindlicher interdisziplinärer und interprofessioneller Wundbehandlungsstandard stellt eine unverzichtbare Qualitätssicherungsmaßnahme in der Wundbehandlung dar.
Einleitung: Am 16.12.06 wurde im Eurotransplant-Gebiet der MELD-Score (MELD) als Allokationsbasis zur Lebertransplantation (OLT) eingeführt. Ziel ist eine Reduktion der Sterblichkeit auf der Warteliste. Material und Methoden: 100 Patienten wurden in die prospektive Analyse der MELD-Allokation vom 16.12.06 bis 15.09.07 einbezogen. Ergebnisse: Aktuell warten 68 Pat., 28 Pat. wurden transplantiert, 4 Pat. sind auf der Warteliste (WL) verstorben (4%). Der mittlere MELD auf der WL beträgt 17,2 +/- 5,2 (7-28). Bei 12 Pat. liegt eine Standard-exception (SE) (n=10 HCC, n=2 metabolische Erkrankung) mit einem Match-MELD von 25,6 +/-2,06 vor (24-28). Die Todesursachen der vier auf der WL verstorbenen Pat. waren eine akute Varizenblutung (MELD 9), zwei kardiale Versagen (MELD 13, 18) und eine MRSA-Sepsis (MELD 29, NT-Status). Die 28 transplantierten Pat. hatte zum Zeitpunkt der Transplantation einen mittleren MELD von 27,66 +/- 5,1 Punkten (21 bis 40). 20 Pat. wurden aufgrund des Labor-MELD (28,4 +/- 5,3, 24-40) transplantiert, wobei 7 Pat. einen MELD über 30 aufwiesen. Die Wartezeit lag bei 11,55 +/- 5,3 Tagen. 8 Pat. erhielten bei SE bei HCC (MELD 24 +/- 0, 24) ein Organ nach einer Wartezeit von 320 +/- 9,7 Tagen. Aktuell leben 23 der 28 transplantierten Pat. Bei zwei verstorbenen Pat. war die Todesursache ein kardiales Versagen, bei zwei Patienten eine primäre Non-Funktion sowie ein septisches Multiorganversagen. Schlussfolgerung: Während der ersten Monate der MELD Allokation lag die Letalität auf der WL in unserem Zentrum bei 4%. Patienten mit einem mittleren MELD über 27 erhielten Organangebote und konnten nach kurzer Wartezeit transplantiert werden.
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Konventionelle Ösophagusresektionen gehen auch heute noch mit einer hohe Morbidität und Mortalität einher. Die Ergebnisse einiger Serien minimal-invasiver Ösophagusresektionen sind vielversprechend, aber kontrovers diskutiert. Material und Methoden: Im Rahmen einer Beobachtungsstudie werden seit Mai 2005 minimal-invasive thorakoabdominelle Ösophagektomien mit cervikalem Magenhochzug durchgeführt. Die operativen Parameter und der postoperative Verlauf werden prospektiv erfasst und jetzt retrospektiv ausgewertet. Ergebnisse: Seit Mai 2005 wurden 28 Patienten minimal-invasive ösophagektomiert, 3 transhiatal und 25 thorakoabdominell. Indikation waren Plattenepithelkarzinome bei 14 und distale Adenokarzinome bei 13 Patienten, bei einem Patienten eine langstreckige benigne Stenose. Die Tumorstadien waren UICC-IIa in 7, UICC-2b in 2 und UICC-III in 18 Patienten. 11 Patienten (41%) wurden neoadjuvant vorbehandelt. Die OP-Zeit betrug im Mittel 296 Min. +/- 46 Min., der intraoperative Blutverlust 110 ml +/- 131 ml. Ein abdomineller Operationsabschnitt wurde konvertiert (4%), thorakal war bisher keine Konversion notwendig. R-0 Resektionen wurde in 26/27 Patienten (96%) erzielt, die mittlere Anzahl entfernter Lymphknoten betrug 19. Die 30-Tage –Letalität war 0, die Krankenhausletalität 11%. Die Morbidität betrug 54% und beinhaltet 7 Anastomoseninsuffizienzen, 2 „Ösophago“-tracheale Fisteln, 1 Hiatushernie, 2 Recurrensparesen, 2 Pneumonien und 1 beatmungspflichtiges Delir. Drei Patienten (11%) wurden operativ revidiert (eine Fistel, eine Anastomoseninsuffizienz bei Magenschlauchnekrose, eine Hiatushernie). Schlussfolgerung: Nach Einführung der minimal-invasiven thorakoabdominellen Ösophagektomie werden die exzellenten Ergebnisse anderer minimal-invasiver Serien bisher nicht erreicht, entsprechen aber im Wesentlichen den Ergebnissen der konventionellen Technik. Abzuwarten bleibt, ob die Ergebnisse nach weiterer Abflachung der Lernkurve Verbesserungen aufweisen werden.
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Die Resektion von Lebermetastasen kolorektaler Karzinome stellt die einzige potentiell kurative Behandlungsoption dar. Wirksame Chemotherapeutika wie Oxaliplatin und Irinotecan sind in den Verdacht geraten durch histologische Veränderungen an der Leber das Resektionsausmass oder das Outcome von vorbehandelten Patienten zu gefährden.Die vorliegende Studie untersucht daher den Grad der Steatohepatitis bei Patienten mit kolorektalen Lebermetastasen in Abhängigkeit von der Chemotherapie. Material und Methoden: In einem Kollektiv von 100 konsekutiven Patienten (08/2002 bis 02/2006) (chemonaiv: n=32, 62,4 +/- 13,3 Jahre; neoadjuvante Chemotherapie: n=39, 62 +/- 10,2 Jahre und adjuvante Chemotherapie: n=29, 61,2 +/- 10,8 Jahre) wurde aus den intraoperativ gewonnenen Leberresektaten retrospektiv der NAFLD-Score nach Kleiner et al. (Hepatology 2005) erhoben. Zur morphologischen Beurteilung wurde die Hämatoxilin-Eosin-Färbung verwendet, während der Fibrosegrad anhand der Ladewig-Färbung und der Siderosegrad mittels der Berliner-Blau-Färbung bestimmt wurden.Anschließend erfolgte eine statische Analyse der Häufigkeit und Relevanz der Steatohepatitis in den einzelnen Gruppen im Hinblick auf Verlauf und Outcome der Leberresektion. Hierbei wurden multivariate Regression, Kruskal-Wallis-Test, chi2-Test oder Mann-Whitney-U-Test (p<0,05) verwendet. Ergebnisse: Im vorliegenden Patientengut zeigten 7 Patienten eine ausgeprägte NASH, während bei 69% der Patienten keinerlei Veränderungen im Sinne einer NASH vorlagen. Die subjektive Gesamtbeurteilung der Pathologen und der errechnete NASH-Score eine Übereinstimmung in 92%. (Cohen´s kappa 0,82; 95%-Konfidenzintervall [0,71-0,93]). Hinsichtlich des NASH-Score (p=0,462) oder seiner Komponenten konnten keine Unterschiede in Abhängigkeit vom Zeitpunkt der Chemotherapie (Chemonaiv/ neoadjuvant/ adjuvant) gefunden werden. Eine Analyse in Abhängigkeit der verwendeten Chemotherapeutika zeigte keine Unterschiede für den Gesamt-Score (p=0,897), jedoch signifikante Unterschiede für einzelne Komponenten: Portale Entzündung (p=0,045) und Vorliegen von Microgranulomen (p<0,001). Auch eine multivariate Analyse konnte weder den Einfluss von Substanz noch Zeitpunkt der Chemotherapie auf die Entwicklung einer NASH (p zwischen 0,35 und 0,92) nachweisen.Die Analyse des perioperativen Verlaufs (Transfusionsbedarf, Radikalität, Komplikationen, Liegedauer, postoperative Leberfunktion, Krankenhausmortalität) ergab keine signifikanten Unterschiede für Patienten mit oder ohne NASH. Schlussfolgerung: Das Vorliegen einer Steatohepatitis in unserem Patientengut war eine seltene Diagnose, die nicht in Zusammenhang mit Zeitpunkt der Chemotherapie oder verwendetem Chemotherapeutikum stand. Selbst das Vorliegen einer NASH scheint keinen relevanten Einfluss auf den perioperativen Verlauf oder das Outcome nach Leberresektion zu haben.
Nucleation experiments starting from the reaction of OH radicals with SO2 have been performed in the IfT-LFT flow tube under atmospheric conditions at 293±0.5 K for a relative humidity of 13–61%. The presence of different additives (H2, CO, 1,3,5-trimethylbenzene) for adjusting the OH radical concentration and resulting OH levels in the range (4–300) ×105 molecule cm -3 did not influence the nucleation process itself. The number of detected particles as well as the threshold H2SO4 concentration needed for nucleation was found to be strongly dependent on the counting efficiency of the used counting devices. High-sensitivity particle counters allowed the measurement of freshly nucleated particles with diameters down to about 1.5 nm. A parameterization of the experimental data was developed using power law equations for H2SO4 and H2O vapour. The exponent for H2SO4 from different measurement series was in the range of 1.7–2.1 being in good agreement with those arising from analysis of nucleation events in the atmosphere. For increasing relative humidity, an increase of the particle number was observed. The exponent for H2O vapour was found to be 3.1 representing an upper limit. Addition of 1.2×1011 molecule cm -3 or 1.2×1012 molecule cm -3 of NH3 (range of atmospheric NH3 peak concentrations) revealed that NH3 has a measureable, promoting effect on the nucleation rate under these conditions. The promoting effect was found to be more pronounced for relatively dry conditions, i.e. a rise of the particle number by 1–2 orders of magnitude at RH = 13% and only by a factor of 2–5 at RH = 47% (NH3 addition: 1.2×1012 molecule cm -3). Using the amine tert-butylamine instead of NH3, the enhancing impact of the base for nucleation and particle growth appears to be stronger. Tert-butylamine addition of about 1010 molecule cm -3 at RH = 13% enhances particle formation by about two orders of magnitude, while for NH3 only a small or negligible effect on nucleation in this range of concentration appeared. This suggests that amines can strongly influence atmospheric H2SO4-H2O nucleation and are probably promising candidates for explaining existing discrepancies between theory and observations.
We report the first measurements of 1,1,1,2,3,3,3-heptafluoropropane (HFC-227ea), a substitute for ozone depleting compounds, in remote regions of the atmosphere and present evidence for its rapid growth. Observed mixing ratios ranged from below 0.01 ppt in deep firn air to 0.59 ppt in the northern mid-latitudinal upper troposphere. Firn air samples collected in Greenland were used to reconstruct a history of atmospheric abundance. Year-on-year increases were deduced, with acceleration in the growth rate from 0.026 ppt per year in 2000 to 0.057 ppt per year in 2007. Upper tropospheric air samples provide evidence for a continuing growth until late 2009. Fur- thermore we calculated a stratospheric lifetime of 370 years from measurements of air samples collected on board high altitude aircraft and balloons. Emission estimates were determined from the reconstructed atmospheric trend and suggest that current "bottom-up" estimates of global emissions for 2005 are too high by more than a factor of three.
We report the first measurements of 1,1,1,2,3,3,3-heptafluoropropane (HFC-227ea), a substitute for ozone depleting compounds, in air samples originating from remote regions of the atmosphere and present evidence for its accelerating growth. Observed mixing ratios ranged from below 0.01 ppt in deep firn air to 0.59 ppt in the current northern mid-latitudinal upper troposphere. Firn air samples collected in Greenland were used to reconstruct a history of atmospheric abundance. Year-on-year increases were deduced, with acceleration in the growth rate from 0.029 ppt per year in 2000 to 0.056 ppt per year in 2007. Upper tropospheric air samples provide evidence for a continuing growth until late 2009. Furthermore we calculated a stratospheric lifetime of 370 years from measurements of air samples collected on board high altitude aircraft and balloons. Emission estimates were determined from the reconstructed atmospheric trend and suggest that current "bottom-up" estimates of global emissions for 2005 are too high by a factor of three.
Das Modifizierte Vacciniavirus Ankara (MVA) entstand nach mehr als 500 Passagen des Chorioallantois Vacciniavirus Ankara (CVA) auf Hühnerembryofibroblasten. Mit der Passagierung ging u.a. der Verlust zahlreicher Vacciniavirus Virulenzfaktoren einher, wodurch MVA einen hochattenuierten Phänotyp aufweist. Bei mangelnder Pathogenität für humane Organismen verfügt das MVA jedoch über eine vollständig erhaltene Genexpression inklusive integrierter Fremdgene. Hierdurch bedingt ist MVA ein vielversprechender Kandidat nicht nur als Pockenimpfstoff der dritten Generation, sondern auch als Vektorvakzine gegen zahlreiche Infektionskrankheiten sowie in der Tumor-assoziierten Immunotherapie. Ein wesentliches Charakteristikum der Attenuierung von MVA ist seine fehlende Replikationsfähigkeit in humanen Zellen. Bislang ist es jedoch noch nicht möglich gewesen, die hierfür verantwortlichen genetischen Veränderungen eindeutig zuzuordnen. Vorangegangene Arbeiten wiesen darauf hin, dass sich der beschriebene Effekt zumindest teilweise auf die Zeitspanne zwischen zwei Vorläufern des MVA eingrenzen lässt. So zeigten sich humane HeLa Zellen für das CVA 152 permissiv, während gegenüber dem CVA 386 nur noch eine Semipermissivität bestand. Mit Hilfe einer vergleichenden Sequenzanalyse von CVA 152 und CVA 386 konnten verschiedene Deletionen identifiziert werden, deren Auftreten potentiell verantwortlich für den veränderten Phänotyp von CVA 386 ist. In diesem Zusammenhang wurden im Rahmen dieser Arbeit die Gene C12L, C14L, C15L und C16L der Deletion I und die Gene M1L, M2L und der OLR 037 der Deletion II charakterisiert. Durch Transfektion von Expressionsplasmiden wurden die entsprechenden Proteine bezüglich ihrer Expression und posttranslationalen Modifikation, sowie ihrer subzellulären Verteilung untersucht. So ließ sich für das Protein M2 eine posttranslationale N-Glykosylierung und die Lokalisation innerhalb des trans-medialen Golgiapparats nachweisen. Zusätzlich konnte eine Sekretion des M2 Proteins im Zellüberstand transfizierter 293T-Zellen gezeigt, sowie die bereits publizierte Inhibition der NF-:B-Aktivierung durch extrazellulär zugegebenes M2 Protein eingeleitet werden. Die Proteine C14 und C15 zeigten sich in der Laserscanmikroskopie mitochondrial lokalisiert; C16 dagegen kolokalisierte neben einer hauptsächlich intranukleären Verteilung zusätzlich mit F-Aktin. Ferner ergaben sich für die Proteine C14 und C15 erste Hinweise auf eine inhibitorische Funktion gegenüber Staurosporin-induzierter Apoptose.
A comprehensive evaluation of seasonal backward trajectories initialized in the northern hemisphere lowermost stratosphere (LMS) has been performed to investigate the factors that determine the temporal and spatial structure of troposphere-to-stratosphere-transport (TST) and it’s impact on the LMS. In particular we explain the fundamental role of the transit time since last TST (tTST) for the chemical composition of the LMS. According to our results the structure of the LMS can be characterized by a layer with tTST<40 days forming a narrow band around the local tropopause. This layer extends about 30K above the local dynamical tropopause, corresponding to the extratropical tropopause transition layer (ExTL) as identified by CO. The LMS beyond this layer shows a relatively well defined separation as marked by an aprupt transition to longer tTST indicating less frequent mixing and a smaller fraction of tropospheric air. Thus the LMS constitutes a region of two well defined regimes of tropospheric influence. These can be characterized mainly by different transport times from the troposphere and different fractions of tropospheric air. Carbon monoxide (CO) mirrors this structure of tTST due to it’s finite lifetime on the order of three months. Water vapour isopleths, on the other hand, do not uniquely indicate TST and are independent of tTST, but are determined by the Lagrangian Cold Point (LCP) of air parcels. Most of the backward trajectories from the LMS experienced their LCP in the tropics and sub-tropics, and TST often occurs 20 days after trajectories have encountered their LCP. Therefore, ExTL properties deduced from CO and H2O provide totally different informations on transport and particular TST for the LMS.
Two different single particle mass spectrometers were operated in parallel at the Swiss High Alpine Research Station Jungfraujoch (JFJ, 3580 m a.s.l.) during the Cloud and Aerosol Characterization Experiment (CLACE 6) in February and March 2007. During mixed phase cloud events ice crystals from 5–20 micro m were separated from larger ice aggregates, non-activated, interstitial aerosol particles and supercooled droplets using an Ice-Counterflow Virtual Impactor (Ice-CVI). During one cloud period supercooled droplets were additionally sampled and analyzed by changing the Ice-CVI setup. The small ice particles and droplets were evaporated by injection into dry air inside the Ice-CVI. The resulting ice and droplet residues (IR and DR) were analyzed for size and composition by the two single particle mass spectrometers: a custom-built Single Particle Laser-Ablation Time-of-Flight Mass Spectrometer (SPLAT) and a commercial Aerosol Time-of-Flight Mass Spectrometer (ATOFMS, TSI Model 3800). During CLACE 6 the SPLAT instrument characterized 355 individual IR that produced a mass spectrum for at least one polarity and the ATOFMS measured 152 IR. The mass spectra were binned in classes, based on the combination of dominating substances, such as mineral dust, sulfate, potassium and elemental carbon or organic material. The derived chemical information from the ice residues is compared to the JFJ ambient aerosol that was sampled while the measurement station was out of clouds (several thousand particles analyzed by SPLAT and ATOFMS) and to the composition of the residues of supercooled cloud droplets (SPLAT: 162 cloud droplet residues analyzed, ATOFMS: 1094). The measurements showed that mineral dust was strongly enhanced in the ice particle residues. Close to all of the SPLAT spectra from ice residues did contain signatures from mineral compounds, albeit connected with varying amounts of soluble compounds. Similarly, close to all of the ATOFMS IR spectra show a mineral or metallic component. Pure sulfate and nitrate containing particles were depleted in the ice residues. Sulfate and nitrate was found to dominate the droplet residues (~90% of the particles). The results from the two different single particle mass spectrometers were generally in agreement. Differences in the results originate from several causes, such as the different wavelength of the desorption and ionisation lasers and different size-dependent particle detection efficiencies.
Background: The integration of the non-cross-resistant chemotherapeutic agents capecitabine and vinorelbine into an intensified dose-dense sequential anthracycline- and taxane-containing regimen in high-risk early breast cancer (EBC) could improve efficacy, but this combination was not examined in this context so far. Methods: Patients with stage II/IIIA EBC (four or more positive lymph nodes) received post-operative intensified dose-dense sequential epirubicin (150mg/m2 every 2 weeks) and paclitaxel (225mg/m2 every 2 weeks) with filgrastim and darbepoetin alfa, followed by capecitabine alone (dose levels 1 and 3) or with vinorelbine (dose levels 2 and 4). Capecitabine was given on days 1-14 every 21 days at 1000 or 1250 mg/m2 twice daily (dose levels 1/2 and 3/4, respectively). Vinorelbine 25 mg/m2 was given on days 1 and 8 of each 21-day course (dose levels 2 and 4). Results: Fifty-one patients were treated. There was one dose-limiting toxicity (DLT) at dose level 1. At dose level 2 (capecitabine and vinorelbine), five of 10 patients experienced DLTs. Therefore evaluation of vinorelbine was abandoned and dose level 3 (capecitabine monotherapy) was expanded. Hand-foot syndrome and diarrhoea were dose limiting with capecitabine 1250 mg/m2 twice daily. At 35.2 months' median follow-up, the estimated 3-year relapse-free and overall survival rates were 82% and 91%, respectively. Administration of capecitabine monotherapy after sequential dose-dense epirubicin and paclitaxel is feasible in node-positive EBC, while the combination of capecitabine and vinorelbine as used here caused more DLTs. Trial registration: Current Controlled Trials ISRCTN38983527.
Background: European robins, Erithacus rubecula, show two types of directional responses to the magnetic field: (1) compass orientation that is based on radical pair processes and lateralized in favor of the right eye and (2) so-called 'fixed direction' responses that originate in the magnetite-based receptors in the upper beak. Both responses are light-dependent. Lateralization of the 'fixed direction' responses would suggest an interaction between the two magnetoreception systems. Results: Robins were tested with either the right or the left eye covered or with both eyes uncovered for their orientation under different light conditions. With 502 nm turquoise light, the birds showed normal compass orientation, whereas they displayed an easterly 'fixed direction' response under a combination of 502 nm turquoise with 590 nm yellow light. Monocularly right-eyed birds with their left eye covered were oriented just as they were binocularly as controls: under turquoise in their northerly migratory direction, under turquoise-and-yellow towards east. The response of monocularly left-eyed birds differed: under turquoise light, they were disoriented, reflecting a lateralization of the magnetic compass system in favor of the right eye, whereas they continued to head eastward under turquoise-and-yellow light. Conclusion: 'Fixed direction' responses are not lateralized. Hence the interactions between the magnetite-receptors in the beak and the visual system do not seem to involve the magnetoreception system based on radical pair processes, but rather other, non-lateralized components of the visual system.