Refine
Year of publication
- 2009 (2437) (remove)
Document Type
- Article (983)
- Doctoral Thesis (391)
- Part of Periodical (311)
- Book (210)
- Review (128)
- Working Paper (116)
- Part of a Book (86)
- Report (65)
- Conference Proceeding (58)
- Preprint (15)
Language
- German (1440)
- English (859)
- Portuguese (55)
- Croatian (39)
- French (24)
- Multiple languages (5)
- Italian (4)
- Spanish (4)
- dut (2)
- Hungarian (2)
Keywords
- Deutsch (58)
- Linguistik (35)
- Literatur (30)
- Rezension (24)
- Filmmusik (21)
- Lehrdichtung (18)
- Reiseliteratur (16)
- Deutschland (14)
- Film (13)
- Literaturwissenschaft (13)
Institute
- Medizin (287)
- Extern (198)
- Biochemie und Chemie (158)
- Biowissenschaften (92)
- Präsidium (80)
- Physik (67)
- Gesellschaftswissenschaften (61)
- Rechtswissenschaft (51)
- Geowissenschaften (48)
- Geschichtswissenschaften (48)
Die hier vorliegende Arbeit ist eine soziolinguistische Studie über die hybride Sprachpraxis der Chicanos in den USA. Sie schreibt sich damit in den aktuellen Diskurs der Hybridität ein. Das Ziel dieser Arbeit ist die Darstellung und Analyse sprachlich hybrider Phänomene, die aus Hybridisierungsprozessen hervorgehen. Das Untersuchungsfeld stellt der Chicano Hip-Hop dar. Die kulturellen Textproduktionen in musikalischer Form ermöglichen Einblicke in eine hybride Jugendund Gegenwartskultur, welche die Bedeutung und Funktionen sprachlich hybrider Markierungen offen legt. Der Sprechgesang, auch Rap, dient hier als Gegenstand der linguistischen Analyse. Methodisch erfolgt die Untersuchung durch eine Sprachanalyse im Sinne einer linguistischen Gesprächsanalyse. Die primäre Frage ist hierbei: Was tut der bi- oder multilinguale Sprecher?6 Und welche Funktion hat sein Tun? Dieser interpretative Ansatz dient der Verifizierung folgender Grundüberlegung: Die Wahl der Sprechform, also die Art und Weise, wie der Sprecher Sprachen und Varietäten gebraucht, kombiniert, mischt, separiert und neu kreiert ist Ausdruck seiner jeweiligen sozialen und kulturellen Identität. Der Grad der sprachlichen Hybridisierung ist ein wesentliches Indiz für die Positionierung des Individuums im plurikulturellen Raum, d.h. im Spannungsfeld der Kulturen. Die These lautet demzufolge: Hybrides Sprechen ist Ausdruck einer hybriden Identität, die verschiedene kulturelle und soziale Zugehörigkeiten in sich zusammenführt. Die Arbeit verfolgt im Rahmen des Hybriditätskonzepts keine sprachstrukturelle, sondern eine interpretative Perspektive multilingualen Handelns. Folglich steht der sprachliche Akteur im Zentrum der Beobachtung. Dementsprechend wird es hier nicht nur um linguistische Begriffsbestimmungen gehen, sondern maßgeblich um die Praxis, Funktion und Bedeutung des hybriden Sprechens im Rap.
Wassergefiltertes Infrarot A (wIRA) wird erfolgreich in der Wundbehandlung, selbst bei chronischen Problemwunden, eingesetzt. Prof. Dr. Gerd Hoffmann, Facharzt für Innere Medizin, Sportmedizin und Notfallmedizin, Johann Wolfgang Goethe-Universität Frankfurt a. M., erklärt, was bei diesem Verfahren passiert.
Einfluss des Lungensports auf die Muskelmasse, Lebensqualität und Lungenfunktion bei COPD-Patienten
(2009)
In der vorliegenden Arbeit wurde die Auswirkung von Lungensport auf die Systemerkrankung COPD untersucht. Es nahmen 42 Patienten mit COPD Gold II-III, die in eine Kontroll- und Studiengruppe aufgeteilt wurden, an der Studie teil. Die Untersuchung fand eineinhalb Jahre lang statt und die Probanden kamen regelmäßig alle 6 Monate zu Untersuchungen. Es wurde mittels BIA-Messung die Muskelmasse, Ernährungs- und Trainingszustand der Probanden gemessen. Ebenso füllte die Studiengruppe regelmäßig einen Lebensqualitäts-Fragebogen aus, den so genannten St. George Respiratory Questionnaire, der speziell für Patienten mit Atemwegserkrankungen erstellt wurde. Ein weiterer Untersuchungsschwerpunkt lag in der Erfassung der Atmungsverbesserung, die mittels Peak Flow und Spirometrie ermittelt wurde. Die Studiengruppe nahm einmal wöchentlich am Lungensport teil. Die Kontrollgruppe trieb keinerlei Sport. Der Lungensport ist ein ambulantes Rehabilitationsprogramm für Lungenkranke, das von einer Diplom-Sportwissenschaftlerin geleitet wird. Ziel der Studie war es zu zeigen, dass Lungensport eine positive Auswirkung auf den Verlauf der COPD, als Systemerkrankung, hat. Die Ergebnisse zeigen, dass die Muskelmasse der Studiengruppe signifikant ansteigt. Ebenso bessert sich der Trainings- und Ernährungszustand der COPD in der Trainingsgruppe signifikant nach längerer Teilnahme. Dies zeigen die Werte des Phasenwinkels (p < 0,01) und des ECM/BCM-Index (p < 0,05) im Vergleich zur Kontrollgruppe nach einem Jahr Teilnahme am Lungensport. Der expiratorische Peak Flow verbessert sich signifikant nach einem Vierteljahr um 5% und nach einem halben Jahr Teilnahme am Lungensport um 10-20%. Am deutlichsten zeigen sich diese Effekte während der Belastungsphase und nach dem Training. Die Lebensqualität der COPD-Patienten verbessert sich gering in der Studiengruppe, die Ergebnisse waren nicht p-signifikant, wobei sich das Gesamtergebnis um 4 Punkte verbessert. Jones P. et al zeigte dass eine Verbesserung um 4 Punkte ein klinisch signifikantes Ergebnisse gibt. Die Ergebnisse dieser Studie zeigen einen positiven Einfluss von Lungensport auf die Körperzusammensetzung und die Lebensqualität der Patienten. Die schädigenden Einflüsse der COPD auf die Körperzusammensetzung können im Vergleich zu sportlich inaktiven Patienten reduziert werden, im Falle der BCM (p < 0,01) ist sogar eine Besserung möglich. Diese Studie repräsentiert einen weiteren Beleg für die Effizienz von Lungensport in der Therapie der COPD. Der Peak Flow ist ein einfacherer Parameter, um die Besserung der Leistungsfähigkeit durch Lungensport objektivieren zu können. Der expiratorische Peak Flow ist ein wichtiger Indikator für die Prognose quod vitam von COPD Patienten, der mindestens ebenso aussagekräftig ist wie der FEV1-Wert. Zusammenfassend ergab die Studie, dass die regelmäßige Teilnahme am Lungensport einen steigernden Effekt auf die Muskelmasse hat und den Ernährungszustand von COPD-Patienten verbessert. Die Lebensqualität verbessert sich klinisch signifikant um 4 Punkte. Man kann also annehmen, dass die COPD Patienten ihre Lebensqualität verbessern. Im Hinblick darauf dass die COPD eine unaufhaltsame, irreversible Systemerkrankung ist, ist dieses Ergebnis als Erfolg anzusehen. Der Lungensport ist als Evidenz basierte Maßnahme in der Behandlung der COPD anzusehen. Lungensport kann ergänzend zu den schon bestehenden etablierten Therapiemethoden, die oft sehr kostenintensiv sind, angewendet werden. Die Kombination des Lungenports und der medikamentösen Therapie hält den Verlauf der COPD auf. Die Teilnahme am Lungensport dient damit gleichfalls zur Verbesserung der Prognose, Lebenserwartung und Lebensqualität der COPD-Patienten. Er leistet neben der medizinischen Relevanz auch einen gesundheitspolitischen Beitrag durch den Einsatz kostendämpfender Maßnahmen. Leider gibt es noch nicht genügend Angebote im Lungensport um die große Anzahl der COPD-Patienten abzudecken. Was könnte getan werden, dass Lungensport etabliert wird? - Lungenfachärzte müssen informiert werden - Krankenkasse sollten die Patienten mehr unterstützen - mehr Lungensport-Gruppen zu alternativen Uhrzeiten
The physics of interacting bosons in the phase with broken symmetry is determined by the presence of the condensate and is very different from the physics in the symmetric phase. The Functional Renormalization Group (FRG) represents a powerful investigation method which allows the description of symmetry breaking with high efficiency. In the present thesis we apply FRG for studying the physics of two different models in the broken symmetry phase. In the first part of this thesis we consider the classical O(1)-model close to the critical point of the second order phase transition. Employing a truncation scheme based on the relevance of coupling parameters we study the behavior of the RG-flow which is shown to be influenced by competition between two characteristic lengths of the system. We also calculate the momentum dependent self-energy and study its dependence on both length scales. In the second part we apply the FRG-formalism to systems of interacting bosons in the phase with spontaneously broken U(1)-symmetry in arbitrary spatial dimensions at zero temperature. We use a truncation scheme based on a new non-local potential approximation which satisfy both exact relations postulated by Hugenholtz and Pines, and Nepomnyashchy and Nepomnyashchy. We study the RG-flow of the model, discuss different scaling regimes, calculate the single-particle spectral density function of interacting bosons and extract both damping of quasi-particles and spectrum of elementary excitations from the latter.
This dissertation consists of three chapters. The first two chapters investigate the real effects of inflation and the third chapter the role of child care for fertility and female female labor supply. Chapter 1 introduces a generalized panel threshold model to analyze the relation between inflation and economic growth for a sample of developing countries. It is demonstrated that allowing for regime intercepts can be crucial for obtaining unbiased estimates of both, inflation thresholds and its marginal effects on growth in the various regimes. The empirical results confirm that the omitted variable bias of standard panel threshold models can be statistically and economically significant. Chapter 2, which is joined work with Dieter Nautz, investigates the impact of inflation on relative price variability (RPV) as a further important channel of the real effects of inflation. With a view to the recent debate on the Fed's implicit lower and upper bounds of its inflation objective, the econometric model introduced in Chapter 1 is used to explore the inflation-RPV linkage in U.S. cities. Chapter 3 investigates the relationship between fertility, female labor supply and child care in the context of a life cycle model for Germany. A particular emphasis is placed on the differences between West and East Germany. Counterfactual policy experiments mimicking recent policy reforms on maternal leave and the provision of subsidized child care are conducted with a structurally estimated version of the model.
Zunächst wurde in der Arbeit aufgezeigt, was Christian Rock meint. Dahingehend ist festzustellen, dass der christliche Glaube das einzige übergreifende Merkmal ist, welches die Strömung von anderen Formen der Rockmusik unterscheidet und somit ihr typischstes Erkennungszeichen ist. Alle vier hier durch die Bandbeispiele aufgezeigten Spielweisen (Stadion) Rock, Hardrock, Heavy Metal und Praise and Worship, so unterschiedlich sie stilistisch gesehen sind, haben eine Gemeinsamkeit: Ihr durch sie vermittelter Sinn und Gehalt stellt den biblischen Gott in den Mittelpunkt. Beide Begriffe “Christian“ und “Rock“ schließen sich nicht aus: Die Arbeit widerlegt an gezeigten Beispielen die Argumentation der Kritiker. Zumal es sich bei diesem Diskurs nicht um ethische oder moralische Sichtweisen handelt. D. h., wie auch immer man dies bewertet, ein Faktum ist: Christen machen Musik im Stile des Rock und bringen dementsprechende Texte ein. Dem folgend ergab sich eine Fragestellung, ob denn und wenn ja warum Christian Rock eine Alternative zu herkömmlichen Formen des Rocks darstellt. Die Arbeit hat meines Erachtens aufgezeigt, dass Christian Rock, obwohl auch kritikwürdig, tatsächlich (Lebens-)Sinn und (christliche) Werte vermitteln kann bzw. vermittelt. Obige These beantworte ich also mit einem Ja, was ich abschließend, die Ergebnisse der Arbeit zusammenfassend, prägnant begründen möchte. Die populärmusikalische Ausdrucksform ist wie auch andere Spielarten des Rock mit seinen Herausforderungen konfrontiert. “Sex, Drugs and Rock ‘n‘ Roll“ haben auch hier, wie die Beispiele zeigen, bei einigen Einzug gehalten. Musiker des Christian Rock glauben an Gott, doch sie selbst bleiben dabei Mensch. Trotz Unvollständigkeiten und Mangel an Nachweisen zum Verhalten dieser Vertreter scheint die Strömung aber ein anderes Bild zu vermitteln: Destruktives Verhalten ähnlich wie in anderen Spielarten des Rock hat sich nicht flächendeckend ausbreiten können. Nach Betrachtung von zahlreichen Zitaten und Texten werden gemachte Fehler zugegeben. Dies liegt gegebenenfalls in einer andersgearteten inneren Ausrichtung, mit Jesus Christus als dem Mittelpunkt, begründet. Sollte dem so sein - dann ist diese Ausdrucksform mehr als nur Musik. Aus christlicher Sicht kann sie als “Botschafter“ Heilung, Hilfe und Rettung in die Welt tragen. Aus dem christlichen Glauben, der die Musiker dieser Ausdrucksform vereint, entstehen Aktionen. Christian Rock steht als eine, aber nicht als alleinige Form, in welcher Verantwortung übernommen wird. Im Folk Rock beispielsweise ist dies in politischer Hinsicht geschehen, als Künstler wie Joan Baez, Bob Dylan oder Pete Seeger in den 60er und 70er Jahren gegen soziale Missstände in der Gesellschaft ansangen. Eine Richtung des Hardcore, “Straight Edge“ genannt, verzichtet bewusst auf den Konsum von Alkohol, Drogen und Zigaretten, um dem Hörer eine Perspektive eines besseren Lebens zu vermitteln. Christian Rock als ein “locus theologicus“, ein Ort, an dem Gottesbegegnung passieren kann, stellt eine Möglichkeit dar, einer nach Sinn und Wert suchenden Welt ein Angebot zur inneren Umkehr zu machen. Oder anders ausgedrückt kann das Evangelium den vorrangig Jugendlichen Hörern auf ihnen zugängliche Weise dargebracht bzw. der christliche Glauben des Konsumenten gestärkt werden. Dieses Vorgehen, auf jene Art und Weise Verantwortung zu übernehmen, ist anderen politisch oder sozial gerichteten Aktivitäten der Musiker gleichgestellt bzw. übergeordnet. Christian Rock kann religions-pädagogisch nutzbar gemacht werden. Dabei ist folgendes nochmals zu verdeutlichen: Weltlicher sowie mit christlichen Inhalten versehener Rock ist nicht zuerst Ursache für ein bestimmtes Verhalten. Wenn nicht der Wert auf Bildung, verantwortungsvolle Erziehung und ein “sauberes“ Umfeld (Elternhaus, Clique) gelegt wird, hat es auch die Ausdrucksform schwer, als pädagogische Maßnahme zu fungieren. Es kommt allerdings immer wieder vor, und dies ist nur im Hinblick auf Christian Rock hervorzuheben, dass durch Erleben eines christlichen (Rock-)Konzerts bzw. das Involviertsein in der christlichen Rockmusikszene Personen ihr Leben in bisherigen (a-)sozialen Strukturen ändern bzw. aufgeben (z. B. durch Hinwendung zum Christentum). Unter Einbeziehung aller Punkte stellt Christian Rock keine Form von Rebellion, sondern eine Alternative zu herkömmlichem Rock dar.
Amblyopie (griech.: amblyopia = stumpfes Auge) bezeichnet eine nichtorganische Sehschwäche eines, oder deutlich seltener beider, Augen, die durch eine beeinträchtige Seherfahrung während der frühkindlichen Entwicklung des visuellen Systems entsteht. Die durch die Amblyopie entstehenden Beeinträchtigungen sind sehr gravierend und können die Sehschärfe, die binokulare Interaktion sowie die Kontrastsensitivität betreffen. Darüber hinaus können auch Fehllokalisationen visueller Reize sowie ausgeprägte räumliche Verzerrungen und zeitliche Instabilitäten beobachtet werden (Sireteanu, 2000a). Zielsetzung der vorliegenden Arbeit war es, die funktionellen Defizite in der amblyopen Sicht in drei verschiedenen Studien zu untersuchen und Hinweise auf die Beeinträchtigungen des ventralen und auch dorsalen kortikalen Verarbeitungspfades zu finden. Die erste Untersuchung, an der 22 amblyope bzw. alternierende Versuchspersonen teilnahmen, befasst sich mit der qualitativen Erfassung der amblyopen visuellen Wahrnehmung bei vier standardisierten Reizmustern. Bei allen Versuchsteilnehmern treten Verzerrungen auf, die jedoch schwächer sind, als in der Literatur bislang beschrieben. Die ausgeprägtesten Verzerrungen finden sich bei der Gruppe der Schielamblyopen. Unabhängig von der Ätiologie zeigt sich jedoch, dass das Ausmaß der Verzerrung bei stärkerer Amblyopie größer ist. Die von Barrett et al. (2003) vorgeschlagenen Kategorien konnten weitgehend repliziert werden und erweiter werden (Schattierungen, partiell vergrößerte bzw. verkleinerte Wahrnehmungen sowie Farbwahrnehmungen). In der zweiten Studie, an der 22 amblyope bzw. alternierende Versuchspersonen und neun normalsichtige Kontrollprobanden teilnahmen, wurde das zweidimensionale Verzerrungsmuster anhand einer Punkt-Lokalisations-Aufgabe im zentralen visuellen Feld untersucht. Schieler mit und ohne Anisometropie zeigen konsistente Verzerrungen, in Form von Erweiterung, Einschrumpfung oder Drehung von Bereichen des getesteten visuellen Feldes. Reine anisometrope Amblyope und Schieler mit alternierender Fixation weisen eine erhöhte räumliche Unsicherheit, jedoch keine konsistenten Verzerrungen auf. In der dritten Studie, einem Streckenteilungsparadigma, nahmen 23 amblyope bzw. alternierende Versuchspersonen sowie sieben normalsichtige Kontrollprobanden teil. Die Aufgabe bestand darin, eine horizontale Strecke in der Mitte zu teilen. Normalsichtige Kontrollprobanden weisen eine konsistente Linksverschiebung („Pseudoneglect“), Schieler mit und ohne Anisometropie hingegen eine konsistente Rechtsverschiebung („Minineglect“) auf. Die Rechtsverschiebung ist bei beiden Augen vorhanden, jedoch beim amblyopen Auge stärker ausgeprägt. Reine anisometrope Amblyope zeigen ähnliche Effekte das amblyope Auge betreffend. Die Gruppe der Schieler mit alternierender Fixation unterscheidet sich nicht signifikant von der Kontrollgruppe. Die Ergebnisse der durchgeführten Studien bestätigen und ergänzen die bekannten Beeinträchtigungen des ventralen visuellen Pfades und liefern darüber hinaus Hinweise auf eine funktionelle Dysfunktion des dorsalen visuellen Pfades.
Drought and salt stress are the major constraint to increase yield in chickpea (Cicer arietinum). Improving drought and high-salinity tolerance is therefore of outmost importance for breeding. However, the complexity of these traits allowed only marginal progress. A solution to the current stagnation is expected from innovative molecular tools such as transcriptome analyses providing insight into stress-related gene activity, which combined with molecular markers and expression (e)QTL mapping, may accelerate knowledge-based breeding. SuperSAGE, an improved version of the serial analysis of gene expression (SAGE) technique, generating genome-wide, high-quality transcription profiles from any eukaryote, has been employed in the present study. The method produces 26bp long fragments (26bp tags) from defined positions in cDNAs, providing sufficient sequence information to unambiguously characterize the mRNAs. Further, SuperSAGE tags may be immediately used to produce microarrays and probes for real-time-PCR, thereby overcoming the lack of genomic tools in non-model organisms.
In der vorliegenden Arbeit wurde die 1s Photoionisation von Neondimeren mit einer Photonenenergie von 10 eV über der 1s Schwelle von Neon durchgeführt. Das Ziel dieser Messung war die Beantwortung der seit vielen Jahren diskutierten Frage nach der Lokalisierung oder Delokalisierung von Vakanzen in homonuklearen diatomaren Systemen am Beispiel des Neondimers. Können die Vakanzen also einem Atom des Dimers zugeordnet werden oder sind sie über beide Atome verteilt? Bezüglich dieser Frage wurden sowohl die in der Photoionisation direkt entstandenen 1s Vakanzen als auch die aus der Relaxation durch einen interatomic Coulombic decay (ICD) resultierenden Vakanzen in der Valenzschale des Neondimers untersucht. Als Observable dienten dabei die Elektronen-Winkelverteilungen im dimerfesten Koordinatensystem, wobei eine bezüglich der ‘rechten’ und der ‘linken’ Seite des homonuklearen diatomaren Moleküls auftretende Asymmetrie in der Winkelverteilung eindeutig eine Lokalisierung der Vakanz indiziert. Dies lässt sich damit begründen, dass die Elektronenwellen im Fall einer delokalisierten Vakanz durch die symmetrisierten Wellenfunktionen beschrieben werden, welche sich aus der kohärenten Überlagerung der lokalisierten Wellenfunktionen ergeben. Die resultierende Winkelverteilung der Elektronen um die Dimerachse ist somit symmetrisch. Im Fall einer lokalisierten Vakanz wird die Elektronenwelle dagegen durch die ‘rechts’ oder ‘links’ lokalisierten Wellenfunktionen, welche aus der kohärenten Überlagerung der symmetrisierten Wellenfunktionen gebildet werden, beschrieben, so dass abhängig von der Elektronenwellenlänge Asymmetrien in der Elektronen-Winkelverteilung auftreten können. Die Möglichkeit, eine eventuelle Asymmetrie in der Winkelverteilung um die Dimerachse zu beobachten ist allerdings nur dann gegeben, wenn die beiden Seiten des Dimers im Anschluss an die Reaktion unterscheidbar sind, d.h. der Ursprung des emittierten Elektrons feststellbar ist, da sich sonst der Fall einer ‘links’ lokalisierten Vakanz mit dem Fall einer ‘rechts’ lokalisierten Vakanz kohärent überlagert. Die Unterscheidung konnte in der vorliegenden Messung anhand der aus einigen Relaxationen hervorgehenden unterschiedlichen Ladungen der ionischen Fragmente des Neondimers durchgeführt werden. Insgesamt wurden im Anschluss an die 1s Photoionisation von Ne2 mit einer Rate von 3:1 der symmetrische Ladungsaufbruch Ne1+ + Ne1+ und der für die Untersuchung der Winkelverteilungen relevante asymmetrische Ladungsaufbruch Ne2+ + Ne1+ des Neondimers beobachtet. Alle in diesen beiden Ladungsaufbrüchen resultierenden intra- und interatomaren Relaxationsprozesse sowie ihre Raten wurden im Rahmen dieser Arbeit identifiziert und analysiert. Der dominante Zerfallskanal des symmetrischen Ladungsaufbruchs resultierte dabei aus dem im Anschluss an einen KL2,3L2,3 stattfindenden Radiative Charge Transfer, bei welchem unter Aussendung eines Photons ein Ladungsaustausch zwischen den Neonionen des Dimers stattfindet. Der dominante Zerfallskanal des asymmetrischen Ladungsaufbruchs wurde durch den im Anschluss an einen KL1L2,3 stattfindenden ICD bestimmt. Bei diesem in Clustern auftretenden Relaxationsprozess wird die Innerschalenvakanz aus Atom 1 durch ein Valenzelektron aus Atom 1 aufgefüllt. Sobald die Relaxationsenergie dabei nicht ausreicht, um, wie beim Augerzerfall, ein weiteres Valenzelektron aus Atom 1 zu ionisieren, wird die Energie mittels eines virtuellen Photons zum neutralen Nachbaratom des Dimers transferiert, und aus diesem wird ein Elektron, das ICD-Elektron, emittiert. Zur experimentellen Untersuchung der verschiedenen Zerfälle wurde die COLTRIMS (COLd Target Recoil Ion Momentum Spectroscopy)-Technik verwendet. Bei dieser Impulsspektroskopie werden die Fragmente mit einer Raumwinkelakzeptanz von 4pi mit Hilfe eines elektrischen und eines magnetischen Feldes auf die ortsauflösenden Detektoren geführt, und ihre Flugzeiten und Auftrefforte werden gemessen. Die COLTRIMS-Technik zeichnet sich dabei dadurch aus, dass eine koinzidente Messung der Elektronen und Ionen möglich ist, wodurch die Fragmente eines Reaktionsereignisses einander zugeordnet werden können. Innerhalb der Reaktionsereignisse fragmentierte das Neondimer im Anschluss an die Relaxation in beiden Ladungsaufbrüchen Ne1+ + Ne1+ und Ne2+ + Ne1+ unter 180° in einer Coulombexplosion. Somit spiegelten die Richtungen der Relativimpulse der Ionen im Rahmen der ‘Axial-Recoil-Approximation’ die Position der Dimerachse zum Zeitpunkt der Reaktion wider, und aus den Impulsen der Elektronen konnten die Emissionsrichtungen der Elektronen bezüglich der Dimerachse abgeleitet werden. In dieser Arbeit wurde mit der beschriebenen Messtechnik eine deutliche Asymmetrie in der Winkelverteilung der 1s Photoelektronen sowie der 2p ICD-Elektronen um die Dimerachse beobachtet. Die gemessene Winkelverteilung der 1s Photoelektronen wies dabei eine qualitativ sehr gute Übereinstimmung mit einer innerhalb einer Hartree-Fock-Rechnung erhaltenen Winkelverteilung für eine vollständig lokalisierte 1s Vakanz im Neondimer auf. Für die Winkelverteilungen der ICD-Elektronen existieren bis heute noch keine theoretischen Vorhersagen. Mit den Ergebnissen der vorliegenden Arbeit konnte somit gezeigt werden, dass entgegen den heute gängigen Theorien zur Beschreibung des Neondimers sowohl die Vakanzen der innersten Schale als auch die Vakanzen der Valenzschale des Neondimers als lokalisiert beschrieben werden müssen.
Es wurde eine neue Routine zur Berechnung der Raumladungskräfte basierend auf einer schnellen Fourier-Transformation entwickelt und in das Teilchensimulationsprogramm LORASR integriert. Dadurch werden einzelne oder bis zu mehreren 100 Simulationen im Batch-Modus mit je 1 Million Makroteilchen und akzeptablen Rechenzeiten ermöglicht. Die neue Raumladungsroutine wurde im Rahmen der Europäischen „High Intensity Pulsed Proton Injectors” (HIPPI) Kollaboration erfolgreich validiert. Dabei wurden verschiedene statische Vergleichstests der Poisson-Solver und schließlich Vergleichsrechnungen entlang des Alvarez-Beschleunigerabschnittes des GSI UNILAC durchgeführt. Darüber hinaus wurden Werkzeuge zum Aufprägen und zur Analyse von Maschinenfehlern entwickelt. Diese wurden erstmals für Fehlertoleranzstudien an der IH-Kavität des Heidelberger Therapiebeschleunigers, am Protonen-Linearbeschleuniger für das FAIR Projekt in Darmstadt sowie am Vorschlag eines supraleitenden CH-Beschleunigers für die “International Fusion Materials Irradiation Facility” (IFMIF) eingesetzt.
Background: To facilitate in the identification of gene products important in regulating renal glomerular structure and function, we have produced an annotated transcriptome database for normal human glomeruli using the SAGE approach. Description: The database contains 22,907 unique SAGE tag sequences, with a total tag count of 48,905. For each SAGE tag, the ratio of its frequency in glomeruli relative to that in 115 non-glomerular tissues or cells, a measure of transcript enrichment in glomeruli, was calculated. A total of 133 SAGE tags representing well-characterized transcripts were enriched 10-fold or more in glomeruli compared to other tissues. Comparison of data from this study with a previous human glomerular Sau3A-anchored SAGE library reveals that 47 of the highly enriched transcripts are common to both libraries. Among these are the SAGE tags representing many podocyte-predominant transcripts like WT-1, podocin and synaptopodin. Enrichment of podocyte transcript tags SAGE library indicates that other SAGE tags observed at much higher frequencies in this glomerular compared to non-glomerular SAGE libraries are likely to be glomerulus-predominant. A higher level of mRNA expression for 19 transcripts represented by glomerulus-enriched SAGE tags was verified by RT-PCR comparing glomeruli to lung, liver and spleen. Conclusions: The database can be retrieved from, or interrogated online at http://cgap.nci.nih.gov/SAGE. The annotated database is also provided as an additional file with gene identification for 9,022, and matches to the human genome or transcript homologs in other species for 1,433 tags. It should be a useful tool for in silico mining of glomerular gene expression.
Im Rahmen dieser Arbeit wurde das Protein CtaG aus Paracoccus denitrificans eingehend charakterisiert. Es wurde überprüft, ob dieses 21 kDa große Membranprotein als Kupferchaperon und Assemblierungsfaktor für die Untereinheit I der Cytochrom c Oxidase, das heißt für die Biogenese des CuB-Zentrums, in Frage kommt. Eine bioinformatische Analyse zeigte zunächst, dass CtaG, ein Homolog des eukaryotischen Proteins Cox11, zu den am stärksten konservierten Assemblierungsfaktoren der Cytochrom c Oxidase gehört. Interessanterweise sind diese Proteine alle an der Biogenese der redoxaktiven Metallzentren beteiligt, und nur sie sind auch in Paracoccus denitrificans konserviert. Somit stellt Paracoccus ein ideales Modellsystem dar, um die essentiellen Schritte der Biogenese der Cytochrom c Oxidase zu untersuchen. Ein lösliches Fragment von CtaG (CtaGLF) wurde heterolog in E. coli exprimiert und mit Hilfe eines spaltbaren His6-tags aufgereinigt. Es wurde ein Protokoll entwickelt, mit dessen Hilfe die Aggregation des löslichen Fragments minimiert und das Protein in hochreiner, aggregatfreier Form isoliert werden kann. Rekonstitutionsversuche zeigten, dass CtaGLF ein spezifisch Cu(I)-bindendes Protein ist. Nach der heterologen Expression in E. coli ist CtaGLF kofaktorfrei. Ein Protokoll zur in vitro Rekonstitution mit Kupferionen wurde entwickelt, mit welchem ein stöchiometrisches Kupfer/Protein-Verhältnis erreicht wird. Gelfiltrations- und ICP-MS-Analysen zeigten, dass CtaGLF Kupferionen ausschließlich als Dimer bindet. Rekonstitutionen bei denen Cu(I), Cu(II), Co(II), Fe(II), Mn(II), Mg(II) und Ni(II) sowohl einzeln als auch simultan angeboten wurden, führten zwar zu wenig reproduzierbaren absoluten Stöchiometrien, bestätigten aber, dass CtaGLF bevorzugt Cu(I) bindet. Mutagenesestudien bewiesen einerseits, dass drei Cysteinreste maßgeblich für die Kupferbindung verantwortlich sind und deuteten andererseits darauf hin, dass zwei identische, punktsymmetrische Bindungsstellen des CtaGLF-Dimers die Kupferionen koordinieren. Mit Hilfe einer Multiseq-Analyse wurden zunächst hochkonservierte Oberflächenreste von CtaG identifiziert. Eine Auswahl dieser Aminosäuren wurde per gerichteter Mutagenese ersetzt und der Effekt dieser Mutationen auf Stöchiometrie, Affinität und Dimerisierung von CtaGLF wurde untersucht. Die Affinitäten wurden dabei mit Hilfe von Kompetitionsexperimenten mit dem Cu(I)-spezifischen Chelator BCA analysiert. Insgesamt vier mögliche Szenarien für die Kupferbindung von CtaG wurden postuliert und anhand der Datenlage diskutiert. Das Szenario III, welches die Datenlage am besten zu erklären vermag, sieht eine trigonale Koordination der Kupferionen vor, an welcher die Cysteine des hochkonservierten CFCF-Motivs einer Polypeptidkette ein gemeinsames Koordinationsfeld mit dem nahe der Transmembranhelix gelegenen Cystein 38 der jeweils anderen Polypeptidkette bilden. Mit Hilfe von UV/Vis-spektroskopischen Messungen wurde gezeigt, dass die Bindung von Kupferionen an CtaGLF zu einer Absorption bei 358 nm führt. Diese kann mit einem Extinktionskoeffizienten von E delta 358 nm = 936 M-1cm-1 zur Beobachtung des Kupfertransfers von CtaGLF auf einen Akzeptor verwendet werden. Um eine Beteiligung von CtaG bei der Insertion des CuB-Ions in die Untereinheit I der Cytochrom c Oxidase (UE I) zu beweisen, wurden zwei Arbeitshypothesen aufgestellt und empirisch untersucht: Die erste Hypothese geht von einer posttranslationalen Kupferinsertion aus. Die UE I wird laut dieser Hypothese zunächst vollständig exprimiert und in die Membran inseriert, bevor das Kupferion über einen Kanal in das 13 Å unterhalb der Membranoberfläche gelegene aktive Zentrum der Oxidase inseriert wird. Drei Ansätze wurden zur empirischen Überprüfung dieser Hypothese verfolgt: Erstens wurde ein in vitro Transferassay etabliert, bei dem heterolog exprimierte, kofaktorfreie UE I als Akzeptor für Kupferionen von CtaGLF diente. Zweitens wurden bioinformatische Analysen durchgeführt um potentielle Interaktionsflächen zwischen CtaG und UE I zu identifizieren. Und drittens wurde mit Hilfe koaffinitätschromatographischer Versuche eine Interaktion zwischen CtaG und kofaktorfreier UE I untersucht. Die Ergebnisse dieser Untersuchungen sprechen allesamt gegen eine posttranslationale CtaG-vermittelte Insertion von Kupferionen in die UE I der Cytochrom c Oxidase. Die zweite Hypothese geht davon aus, dass die prosthetischen Häm- und Kupfergruppen bereits vor der vollständigen Membraninsertion, das heißt kotranslational auf die UE I übertragen werden. Um diese Hypothese zu überprüfen, wurden ebenfalls mehrere Ansätze verfolgt: Erstens wurde die UE I in Gegenwart und Abwesenheit von CtaG heterolog in E. coli exprimiert und anschließend aufgereinigt. In Abwesenheit weiterer Assemblierungsfaktoren ist CtaG in diesem System nicht dazu in der Lage den Kupfergehalt der UE I zu erhöhen. Zweitens wurde mit Hilfe von Blau-Nativ Gelen und Crosslinking-Versuchen im nativen Wirt Paracoccus denitrificans nach einer Wechselwirkung zwischen CtaG und UE I gesucht. Insbesondere die Ergebnisse der Crosslinking-Versuche deuten auf einen Assemblierungskomplex hin, der sowohl CtaG als auch die UE I der Cytochrom c Oxidase enthält. In einem dritten Ansatz wurde ein zellfreies Expressionssystem etabliert, welches direkten Zugang zu naszierenden Ketten der UE I ermöglicht. Dieses System erscheint vielversprechend und dient derzeit als Basis für weitere Biogenesestudien. Die Ergebnisse der vorliegenden Arbeit zeigen, dass CtaG ein spezifisch Cu(I)-bindendes Protein ist, das im Zuge der Kupferbindung dimerisiert und in Paraoccus denitrificans in einem hochmolekularen Komplex gemeinsam mit UE I vorliegt. Die gegenwärtige Datenlage spricht dafür, dass CtaG als Kupferchaperon an der Biogenese der Cytochrom c Oxidase beteiligt ist und das CuB-Ion in einem kotranslationalen Mechanismus in die UE I der Cytochrom c Oxidase inseriert.
Many questions regarding gastropod phylogeny have not yet been answered like the molecular confirmation of the Heterobranchia concept based on morphological studies from Haszprunar (1985a; 1988). This taxon contains the “Lower Heterobranchia” with several “primitive” or “basal” members) and the Euthyneura (with the Opisthobranchia and Pulmonata). Phylogenetic relationships of subgroups within the Heterobranchia have not been satisfactorily resolved and monophyly of some taxa within the Heterobranchia (e.g. Opisthobranchia) is questionable. Moreover, most of the “Lower Heterobranchia” have not been included in former molecular studies. In order to resolve phylogenetic relationships within the Heterobranchia, I pursued a molecular systematic approach by sequencing and analysing a variety of genetic markers (including nuclear 28S rDNA + 18S rDNA and mitochondrial 16S rDNA + COI sequences). Maximum likelihood as well as Bayesian inference methods were used for phylogenetic reconstruction. The data were investigated a priori to tree reconstruction in order to find the most appropriate dataset for reconstructing heterobranch phylogeny. A variety of statistical tests (like Chi-Square-Test or Relative-Rate-Test) were applied and the substitution saturation was measured. The Relative-Rate-Test revealed the highest evolution rates within the “Lower Heterobranchia” (Omalogyra sp., Omalogyra fusca, Murchisonella sp., Ebala sp. and Architectonica perspectiva) and Opisthobranchia (Hyalocylis striata). Furthermore, many of the nucleotide positions show a high degree of substitution saturation. Additionally, bipartitions (splits) in the alignment were examined and visualized by split network analyses to estimate data quality. A high level of conflict indicated by many parallel edges of the same lengths could be observed in the neighbournet graphs. Moreover, several taxa with long terminal branches could be identified in all three datasets belonging to the Vetigastropoda, Caenogastropoda, “Lower Heterobranchia” or Opisthobranchia (Nudipleura). All phylogenetic analyses revealed a monophyletic Heterobranchia. Within the Heterobranchia several well supported clades could be resolved. However, the traditional classification based on morphological data could not be confirmed due to paraphyletic Euthyneura (because of the inclusion of the Pyramidellidae and Glacidorboidea) as well as paraphyletic Pulmonata and polyphyletic Opisthobranchia. Based on the phylogenetic inferred evolutionary trends regarding habitat colonisation or character complexes could be deduced. A case study was conducted in order to estimate divergence ages using a “relaxed” molecular clock approach with fossils as minimum age constraints. However, due to large 95% confidence intervals a precise dating of the nodes was not possible. Hence, the results are considered as preliminary. To test the plausibility of the newly obtained hypotheses, the results were evaluated a posteriori using a hypothesis test and secondary structures of the complete 18S rRNA and 28S rRNA. Secondary structure motifs were found within domain 43 and E23 2 &5 of the 18S rRNA as well as within domain E11 and G5_1 of the 28S rRNA, which contain phylogenetic signals to support various groups within the Heterobranchia. In addition, taxon specific motifs were found separating the Vetigastropoda from the Caenogastropoda and Heterobranchia, indicating a possible application of the secondary structure of 18S rRNA and 28S rRNA to reveal phylogenetic relationships at higher taxonomic levels such as Gastropoda or even Mollusca. The utility of the newly invented software RNAsalsa for the reconstruction of secondary structures was tested. The obtained structures were used to adjust evolutionary models specific to rRNA stem (paired basepairs) and loop (unpaired basepairs) regions with the intention of improving phylogenetic results. This approach proved unsuccessful. This molecular phylogenetic investigation provides the most comprehensive molecular study of Heterobranchia relationships to date. Substantial insights into the evolution and phylogeny of this enigmatic taxon have been gained.
Background: Molecular phylogenies are being published increasingly and many biologists rely on the most recent topologies. However, different phylogenetic trees often contain conflicting results and contradict significant background data. Not knowing how reliable traditional knowledge is, a crucial question concerns the quality of newly produced molecular data. The information content of DNA alignments is rarely discussed, as quality statements are mostly restricted to the statistical support of clades. Here we present a case study of a recently published mollusk phylogeny that contains surprising groupings, based on five genes and 108 species, and we apply new or rarely used tools for the analysis of the information content of alignments and for the filtering of noise (masking of random-like alignment regions, split decomposition, phylogenetic networks, quartet mapping). Results: The data are very fragmentary and contain contaminations. We show that that signal-like patterns in the data set are conflicting and partly not distinct and that the reported strong support for a "rather surprising result" (monoplacophorans and chitons form a monophylum Serialia) does not exist at the level of primary homologies. Split-decomposition, quartet mapping and neighbornet analyses reveal conflicting nucleotide patterns and lack of distinct phylogenetic signal for the deeper phylogeny of mollusks. Conclusion: Even though currently a majority of molecular phylogenies are being justified with reference to the 'statistical' support of clades in tree topologies, this confidence seems to be unfounded. Contradictions between phylogenies based on different analyses are already a strong indication of unnoticed pitfalls. The use of tree-independent tools for exploratory analyses of data quality are highly recommended. Concerning the new mollusk phylogeny more convincing evidence is needed.
In this work the preparation of organic donor-acceptor thin films was studied. A chamber for organic molecular beam deposition was designed and integrated into an existing deposition system for metallic thin films. Furthermore, the deposition system was extended by a load-lock with integrated bake-out function, a chamber for the deposition of metallic contacts via stencil mask technique and a sputtering chamber. For the sublimation of the organic compounds several effusion cells were designed. The evaporation characteristic and the temperature profile within the cells was studied. Additionally, a simulation program was developed, which calculates the evaporation characteristics of different cell types. The following processes were integrated: evaporation of particles, migration on the cell walls and collisions in the gas phase. It is also possible to consider a temperature gradient within the cell. All processes can be studied separately and their relative strength can be varied. To verify the simulation results several evaporation experiments with different cell types were employed. The thickness profile of the prepared thin films was measured position-dependently. The results are in good agreement with the simulation. Furthermore, the simulation program was extended to the field of electron beam induced deposition (EBID). The second part of this work deals with the preparation and characterization of organic thin films. The focus hereby lies on the charge transfer salt (BEDT-TTF)(TCNQ), which has three known structure variants. Thin films were prepared by different methods of co-evaporation and were studied with optical microscopy, X-ray diffraction and energy dispersive X-ray spectroscopy (EDX).The formation of the monoclinic phase of (BEDT-TTF)(TCNQ) could be shown. As a last part tunnel structures were prepared as first thin film devices and measured in a He4 cryostat.
Funktionen beschränkter mittlerer Oszillation wurden von F. John und L. Nirenberg in ihrer Arbeit von 1961 eingeführt. Das Konzept der beschränkten mittleren Oszillation findet erste Verwendung beim Beweis der Harnackschen Ungleichung für elliptische partielle Differentialgleichungen durch Moser. In dieser Arbeit wird die Idee der beschränkten mittleren Oszillation auf harmonische Räume (X,H) übertragen. Erstmals wurde dieses Konzept von H. Leutwiler in einem Artikel für allgemeine harmonische Räume entwickelt. Da die Mehrzahl der Ergebnisse in Leutwilers Arbeit nur für Brelotsche Räume oder sogar nur für die Laplacegleichung auf der oberen Halbebene gezeigt werden konnten, sind diese zum Beispiel nicht auf harmonische Räume anwendbar, die durch einen parabolischen Differentialoperator, wie die klassische Wärmeleitungsgleichung, erzeugt wurden. Ziel dieser Arbeit ist es nun die Theorie der harmonischen Funktionen beschränkter mittlerer Oszillation für allgemeine harmonische Räume zu entwickeln und unter anderem die Leutwilerschen Resultate zu beweisen. Naturgemäß lassen sich die Beweise aus Leutwilers Arbeit im Allgemeinen nicht einfach übertragen. Vielmehr mußten zum Teil neue Beweisideen und Methoden gefunden werden. Insbesondere wird konsequent von Bezugsmaßen Gebrauch gemacht, die eine allgemeine Harnacksche Ungleichung für diesen Rahmen zur Verfügung stellen. Ausgehend von Resultaten von T. Lyons kann im zweiten Kapitel eine Charakterisierung des Raumes BMO(X) gezeigt werden, wie sie bisher nur im klassischen Fall bekannt war. Aufbauend auf eine Arbeit von Bliedtner und Loeb wird im dritten Kapitel zuerst eine abstrakte Integraldarstellung quasibeschränkter Funktionen hergeleitet, die in Theorem 3.1.9 ihren Niederschlag findet. Dieses Theorem erlaubt eine Darstellung der kleinsten harmonischen Majorante gewisser subharmonischer Funktionen in Theorem 3.1.15. Ausgehend von diesen Resultaten werden schließlich in Theorem 3.2.2 und Korollar 3.2.3 Charakterisierungen harmonischer Funktionen beschränkter mittlerer Oszillation durch ihr Randverhalten erzielt, wie sie bisher nur im klassischen Fall der Laplacegleichung auf der oberen Halbebene in einer späteren Arbeit von Leutwiler gezeigt werden konnten. Im vierten Kapitel werden die harmonischen Räume (X,H) der Laplace- und Wärmeleitungsgleichung als grundlegende Beispiele betrachtet. Im fünften Kapitel wird die Vollständigkeit gewisser Teilmengen des Raumes (BMO(X)/R) untersucht. In Theorem 5.1.10 wird durch Modifikation der Norm gezeigt, daß dieser so modifizierte Raum ein Banachraum ist, allerdings zu dem Preis, daß sämtliche Funktionen in diesem Raum beschränkt sind. Aus Theorem 5.2.4 ergibt sich als Korollar 5.2.6 ein neuer Beweis der Tatsache, daß im Spezialfall Brelotscher harmonischer Räume der Raum (BMO(X)/R) ein Banachraum ist. Schließlich zeigt Theorem 5.2.12, daß gewisse Teilmengen von (BMO(X)/R) vollständig bezüglich der BMO-Norm sind, ohne daß man dabei zusätzliche Bedingungen (wie etwa Brelotscher Raum) an (X,H) stellen muß.
Ein weit verbreitetes Merkmal von Leukämien sind genetische Veränderungen, wobei die Entstehung der Leukämie häufig mit reziproken chromosomalen Translokationen assoziiert ist, welche zur Bildung chimärer Genprodukte führen. Eine Vielzahl dieser reziproken Translokationen basieren auf Translokationen des MLL Gens (Mixed Lineage Leukemia), die mit dem Krankheitstyp einer AML oder einer ALL verbunden sind. Die häufigste chromosomale Translokation ist die t(4;11) Translokation. Sie tritt vor allem bei Kleinkindern bzw. auch bei älteren Patienten mit einer Sekundärleukämie auf und resultiert in einer akuten lymphatischen Leukämie. Es handelt sich um eine Hochrisikoleukämie, welche aufgrund ihrer nahezu Therapie-resistenten Blasten mit einer besonders schlechten Prognose assoziiert ist. Der Mechanismus der Leukämieentstehung durch die MLL-Translokationen und der dabei entstehenden Fusionsproteine konnte bis heute nicht ausreichend geklärt werden. Für einige MLL-Translokationen, die mit einer myeloischen Leukämie verknüpft sind, konnte zunächst das onkogene Potenzial der Fusionsproteine im Mausmodell belegt werden. Im Bezug auf die t(4;11) Translokation blieben Ansätze zur Etablierung eines Tiermodells jedoch lang erfolglos. Erst 2006 konnten mittels einer knock-in-Strategie bzw. einem „inverter“-System Mausmodelle für MLL•AF4 entwickelt werden, in denen die Mäuse nach sehr langer Latenzzeit ein disseminiertes B-Zell-Lymphom aufwiesen. Ein neueres konditionales MLL•AF4 knock-in-Modell, in dem MLL•AF4 unter der Kontrolle des endogenen Zellzyklus-abhängigen MLL-Promotors steht, resultierte hingegen in einer ALL oder AML. Im Allgemeinen steht somit bislang das MLL•AF4-Fusionsprotein im Vordergrund der Erforschung des pathomolekularen Mechanismus der t(4;11) Translokation. Aufgrund der Tatsache, dass in der Regel jedoch neben dem MLL•AF4- ebenso ein AF4•MLL-Fusionstranskript nachgewiesen werden kann, befassten sich Studien unserer Arbeitsgruppe mit der Funktion des AF4•MLLFusionsproteins. Diese Untersuchungen zeigten, dass das AF4•MLL-Fusionsprotein in der Zelle akkumuliert und in der Entwicklung onkogener Effekte sowie der Wachstumstransformation der Zelle resultiert. Ergänzend belegten retrovirale Transduktions-/Transplantations-Experimente die Entwicklung einer akuten Leukämie im Mausmodell, wenn zuvor mit AF4•MLL bzw. mit AF4•MLL und MLL•AF4 transduzierte Stammzellen transplantiert wurden. Um nun die Funktion des AF4•MLL-Proteins sowie die molekularen Ursachen der beobachteten Eigenschaften besser verstehen zu können, wurde der AF4•MLL-Proteinkomplex mittels einer Strep-Tag-Affinitätschromatographie erfolgreich gereinigt und ein Molekulargewicht von ca. 2 MDa über Größenausschlusschromatographie bestimmt. Damit nicht nur ein Vergleich mit dem MLL- sondern auch mit dem AF4-Wildtyp- Proteinkomplex möglich war, wurden ebenfalls eine Größenbestimmung und eine Reinigung des AF4-Proteinkomplexes durchgeführt. Die folgenden Analysen der Komplexkomposition über Immunopräzipitationen, Western Blot-Analysen sowie massenspektrometrische Analysen zeigten, dass sich der AF4•MLL-Proteinkomplex aus Mitgliedern der beiden Wildtyp-Proteinkomplexe zusammensetzt; es wurden P-TEFb, HEXIM1, NFKB1, NPM1, DDX6 und das AF4-Wildtypprotein aus dem AF4-Komplex sowie ASH2L, RBBP5, WDR5, CREBBP, HCF-1 und HCF-2 aus dem MLL-Komplex nachgewiesen. Auf diese Weise werden im AF4•MLL-Proteinkomplex Eigenschaften bzw. Funktionen beider Wildtyp-Proteinkomplexe kombiniert. Um einen weiteren Hinweis auf die Funktion zu erhalten, wurde ergänzend ein in vitro Histon-Methyltransferase-Assay etabliert, der für beide gereinigten Proteinkomplexe eine Histonmethyltransferase-Aktivität zeigte. Basierend auf den vorliegenden Daten kann eine Konkurrenzsituation zwischen dem AF4•MLL-Proteinkomplex und den beiden Wildtyp-Proteinkomplexen um die entsprechenden Faktoren angenommen werden, welche die Assemblierung vollständiger und funktioneller Wildtyp-Proteinkomplexe verhindern könnte. Des Weiteren weisen die Ergebnisse auf Funktionen des AF4•MLL-Proteins in transkriptionellen Prozessen, Histonacetylierungen sowie der H3K4-Trimethylierung hin. Die Fehlregulation epigenetischer und transkriptioneller Prozesse durch die Anwesenheit des AF4•MLL-Proteinkomplexes spielt somit vermutlich eine entscheidende Rolle im pathomolekularen Mechanismus der t(4;11) Translokation.
Das House of Finance hat im Sommer 2008 sein Gebäude bezogen. Unter seinem Dach führt das House of Finance drei Abteilungen aus den Fachbereichen Rechtswissenschaft und Wirtschaftswissenschaften der Goethe-Universität sowie sechs rechtlich selbstständige Institute – darunter auch das E-Finance Lab - zusammen. Neben den traditionellen Aufgaben in der Forschung und Lehre verfolgt das House of Finance das Vorhaben, die Ergebnisse der Forschung für die Praxis und auch für den Finanzplatz Deutschland nutzbar zu machen. Als ein Element dieses Wissenstransfers veröffentlicht das House of Finance die „Newsletter“. Der „Newsletter“ gibt Auskunft über - drei aktuelle Forschungsergebnisse, - die Entwicklungen in der Executive Education, - die neuesten Veröffentlichungen der im House of Finance ansässigen Wissenschaftler, - den Veranstaltungskalender. Der Newsletter umfasst jeweils 16 Seiten und erscheint vierteljährlich in englischer Sprache.
Untersuchungen zur Wechselwirkung zwischen der Polo-like kinase 1 und dem CCCTC-binding factor
(2009)
Die Polo-like kinase 1 ist ein Schlüsselprotein bei der Steuerung mitotischer, meiotischer und zytokinetischer Prozesse. Um den korrekten Ablauf dieser Prozesse zu gewährleisten, muss die Menge an PLK1 in den verschiedenen Phasen des Zellzykluses genauestens reguliert werden. Eine Vielzahl verschiedener Tumorentitäten weisen eine stark erhöhte Konzentration an PLK1-Protein auf. Für die Krebsforschung ist es daher von großer Relevanz Aufschluss über solche Proteine zu erhalten, die Einfluss auf die PLK1 Expression nehmen. Dieses Wissen könnte dazu beitragen, Strategien für eine noch gezieltere Krebstherapie zu entwickeln. Die vorliegende Arbeit zeigt einerseits erste Hinweise für eine Rolle des multivalenten Transkriptionsfaktors CCCTC-binding factor (CTCF) für die Regulation des PLK1-Promotors und andererseits erste Anhaltspunkte für einen Einfluss der PLK1 auf die transkriptionsregulatorische Funktion von CTCF. Grundlage dieser Arbeit war die Identifikation einer putativen Binderegion von CTCF im Bereich des PLK1-Promotors, die die Frage aufkommen ließ, ob CTCF einen transkriptionsregulatorischen Einfluss auf den PLK1-Promotor besitzt. Deshalb wurden initial Reportergenanalysen durchgeführt, bei denen gezeigt werden konnte, dass CTCF die Promotoraktivität einer PLK1-Promotorsequenz, welche die putative CTCF-Binderegion beinhaltet, steigern kann. Zudem ist es gelungen, die Bedeutung der putativen Binderegion für die Aktivitätssteigerung herauszuarbeiten, da eine 50%ige Deletion dieses Bereiches mit einer deutlichen Reduktion der CTCFbedingten Induktion der Reportergentranskription einherging. Interessanterweise konnten in den daraufhin durchgeführten in vitro-Interaktionsstudien erste Daten, die für eine Interaktion von CTCF und PLK1 sprechen, gesammelt werden, wobei die Kombination der Ergebnisse aus dem GST-Pull-Down- und dem Co-Immunopräzipitationsexperiment die Aussage zulassen, dass diese Wechselwirkung auf Seiten der PLK1 über die Polo-Box-Domäne und auf Seiten von CTCF über die aminoterminale Domäne vermittelt wird. Mit dem Nachweis der in vitro-Phosphorylierbarkeit von CTCF durch PLK1 konnte zudem ein mögliche Funktion dieser Interaktion herausgearbeitet werden. Durch den Einsatz von CTCF-Deletionsmutanten und eines punktmutierten CTCF-Fragments gelang es in weiteren Phosphorylierungsstudien Serin-224 als PLK1-Phosphorylierungsstellen in CTCF zu identifizieren. Abschließend ist es im Zuge von Reportergenanalysen, die den Effekt einer S224A Mutante von CTCF mit demjenigen von CTCF Wildtyp verglichen, gelungen, erste Hinweise für einen Rolle von Serin 224 im Hinblick auf die transkriptionsregulatorische Modulation von CTCF zu sammeln.
A tale of two lost archives
(2009)
Wer war... Gertrud Kolmar?
(2009)
Martin Luther und die Juden
(2009)
Schiller und das Judentum
(2009)
Goethe und das Judentum
(2009)
This paper describes a method to treat contextual equivalence in polymorphically typed lambda-calculi, and also how to transfer equivalences from the untyped versions of lambda-calculi to their typed variant, where our specific calculus has letrec, recursive types and is nondeterministic. An addition of a type label to every subexpression is all that is needed, together with some natural constraints for the consistency of the type labels and well-scopedness of expressions. One result is that an elementary but typed notion of program transformation is obtained and that untyped contextual equivalences also hold in the typed calculus as long as the expressions are well-typed. In order to have a nice interaction between reduction and typing, some reduction rules have to be accompanied with a type modification by generalizing or instantiating types.
Motivated by the question of correctness of a specific implementation of concurrent buffers in the lambda calculus with futures underlying Alice ML, we prove that concurrent buffers and handled futures can correctly encode each other. Correctness means that our encodings preserve and reflect the observations of may- and must-convergence. This also shows correctness wrt. program semantics, since the encodings are adequate translations wrt. contextual semantics. While these translations encode blocking into queuing and waiting, we also provide an adequate encoding of buffers in a calculus without handles, which is more low-level and uses busy-waiting instead of blocking. Furthermore we demonstrate that our correctness concept applies to the whole compilation process from high-level to low-level concurrent languages, by translating the calculus with buffers, handled futures and data constructors into a small core language without those constructs.
This paper analyzes the risk properties of typical asset-backed securities (ABS), like CDOs or MBS, relying on a model with both macroeconomic and idiosyncratic components. The examined properties include expected loss, loss given default, and macro factor dependencies. Using a two-dimensional loss decomposition as a new metric, the risk properties of individual ABS tranches can directly be compared to those of corporate bonds, within and across rating classes. By applying Monte Carlo Simulation, we find that the risk properties of ABS differ significantly and systematically from those of straight bonds with the same rating. In particular, loss given default, the sensitivities to macroeconomic risk, and model risk differ greatly between instruments. Our findings have implications for understanding the credit crisis and for policy making. On an economic level, our analysis suggests a new explanation for the observed rating inflation in structured finance markets during the pre-crisis period 2004-2007. On a policy level, our findings call for a termination of the 'one-size-fits-all' approach to the rating methodology for fixed income instruments, requiring an own rating methodology for structured finance instruments. JEL Classification: G21, G28
Der Kopf des Magnus Maximus
(2009)
Rezensionen zu: Govert Schilling, Lars Lindberg Christensen : Unser Fenster zum Weltraum : 400 Jahre Entdeckungen mit Teleskopen. Wiley-VCH-Verlag, Weinheim 2009, 135 Seiten und Begleit DVD, ISBN 978-3-527-40867-2, 24,90 Euro. Thomas Bührke, Roland Wengenmayr (Hrsg.) : Geheimnisvoller Kosmos Astrophysik und Kosmologie im 21. Jahrhundert, Wiley-VCH Verlag, Weinheim 2009, 200 Seiten, ISBN 978-3-527-40899-3, 29,00 Euro. Lars Lindberg Christensen, Robert Fosbury, Robert Hurt : Verborgenes Universum. Wiley-VCH-Verlag, Weinheim 2009, 145 Seiten, ISBN 978-3-527-40868-9, 24,90 Euro.
Steigeisen fürs Theoriegebirge : zwei Neuerscheinungen zum 80. Geburtstag von Jürgen Habermas
(2009)
Rezensionen zu: Michael Funken (Hrsg.) : Über Habermas. Gespräche mit Zeitgenossen. Darmstadt 2008, Primus Verlag, ISBN 978-3-89678-645-6, 192 Seiten, 24,90 Euro. Stefan Müller-Doohm : Jürgen Habermas. Frankfurt 2008, Suhrkamp Verlag, BasisBiographien 38, ISBN 978-3-518-18238-3, 157 Seiten, 7,90 Euro.
Induced charge computation
(2009)
One of the main aspects of statistical mechanics is that the properties of a thermodynamics state point do not depend on the choice of the statistical ensemble. It breaks down for small systems e.g. single molecules. Hence, the choice of the statistical ensemble is crucial for the interpretation of single molecule experiments, where the outcome of measurements depends on which variables or control parameters, are held fixed and which ones are allowed to fluctuate. Following this principle, this thesis investigates the thermodynamics of a single polymer pulling experiments within two different statistical ensembles. The scaling of the conjugate chain ensembles, the fixed end-to-end vector (Helmholtz) and the fixed applied force (Gibbs), are studied in depth. This thesis further investigates the ensemble equivalence for different force regimes and polymer-chain contour lengths. Using coarse-grained molecular dynamic simulations, i.e. Langevin dynamics, the simulations were found to complement the theoretical predictions for the scaling of ensemble difference of Gaussian chains in different force-regimes, giving special attention to the zero force regime. After constructing Helmholtz and Gibbs conjugate ensembles for a Gaussian chain, two different data sets of thermodynamic states on the force-extension plane, i.e. force-extension curves, were generated. The ensemble difference is computed for different polymer-chain lengths by using force-extension curves. The scaling of the ensemble difference versus relative polymer-chain length under different force regimes has been derived from the simulation data and compared to theoretical predictions. The results demonstrate that the Gaussian chain in the zero force limit generates nonequivalent ensembles, regardless of its equilibrium bond length and polymer-chain contour length. Moreover, if polymers are charged in confinement, coarse-graining is problematic, owing to dielectric interfaces. Hence, the effect of dielectric interfaces must be taken into account when describing physical systems such as ionic channels or biopolymers inside nanopores. It is shown that the effect of dielectrics is crucial for the dynamics of a biopolymer or an ion inside a nanopore. In the simulations, the feasibility of an efficient and accurate computation of electrostatic interactions in the presence of an arbitrarily shaped dielectric domain is challenging. Several solutions for this problem have been previously proposed in the literature such as a density functional approach, or transforming problem at hand into an algebraic problem ( Induced Charge Computation (ICC) ) and boundary element methods. Even though the essential concept is the same, which is to replace the dielectric interface with a polarization charge density, these approaches have been analyzed and the ICC algorithm has been implemented. A new superior boundary element method has been devised utilizing the force computation via the Particle-Particle Particle-Mesh (P3M) method for periodic geometries (ICCP3M). This method has been compared to the ICC algorithm, the algebraic solutions, and to density functional approaches. Extensive numerical tests against analytically tractable geometries have confirmed the correctness and applicability of developed and implemented algorithms, demonstrating that the ICCP3M is the fastest and the most versatile algorithm. Further optimization issues are also discussed in obtaining accurate induced charge densities. The potential of mean force (PMF) of DNA modelled on a coarsed-grain level inside a nanopore is investigated with and without the inclusion of dielectric effects. Despite the simplicity of the model, the dramatic effect of dielectric inclusions is clearly seen in the observed force profile.
Rezensionen zu: Axel Meyer : Evolution ist überall : Gesammelte Kolumne ‚Quantensprung’ des Handelsblattes, Böhlau 2008, 158 Seiten gebunden, ISBN 978-3205777717, 19,90 Euro. Volker Storch, Ulrich Welsch & Michael Wink : Evolutionsbiologie, Springer, 2. Auflage 2007, 518 Seiten gebunden, ISBN 978-3540360728, 39,95 Euro. Andreas Sentger & Frank Wigger (Hg.) : Triebkraft Evolution : Vielfalt, Wandel, Menschwerdung, Spektrum 2008, 294 Seiten, Gebunden, ISBN 978-3827420008, 24,95 Euro. Sean B. Carroll : Die Darwin-DNA : Wie die neueste Forschung die Evolutionstheorie bestätigt, S. Fischer 2008, 320 Seiten, gebunden, ISBN 978-3100102317, 19,90 Euro. Manfred Grasshoff : Die Evolution, 2 Audio-CDs, Gesamtspielzeit 127 Minuten Vocalbar 2007, ISBN 978-3939696018, 25 Euro.
Die Entstehung der Arten – historisch, philosophisch und hochaktuell : neue Bücher zum Darwin-Jahr
(2009)
Rezensionen zu: Charles Darwin : Das Lesebuch. Herausgegeben, eingeleitet und mit Begleittexten versehen von Julia Voss. Fischer Verlag, Frankfurt am Main 2008, 472 Seiten, ISBN 978-3-10-010232-4, 12 Euro, Jürgen Neffe : Darwin. Das Abenteuer des Lebens. Bertelsmann Verlag, München 2008, 527 Seiten, 72 Abbildungen, ISBN 978-3-570-01091-4, 22,95 Euro. Michael Ruse : Charles Darwin. Blackwell Great Minds 4 Blackwell Publishing, Malden USA / Oxford UK / Carlton Australia 2008, 337 Seiten mit Abbildungen, ISBN 978-4051-4913-6, 18,99 Euro.
Das „Gesetz zur Umsetzung der Aktionärsrechterichtlinie“ (ARUG) wurde am 28. Mai 2009 vom Bundestag beschlossen und wird diesen Sommer in Kraft treten. Mit dem ARUG werden zwei Richtlinien umgesetzt, die neuen GmbH-Regeln zur verdeckten Sacheinlage für Aktiengesellschaften nachgezeichnet, das Depotstimmrecht wiederbelebt und das Beschlussmängelrecht reformiert. Diese erneute Novelle des Anfechtungs- und Freigaberechts ist Gegenstand folgenden Beitrags. Es wird auch beschrieben, wie eine gewisse Sorge vor unvorhersehbaren Gerichtsbeschlüssen das Beschlussmängelrecht des ARUG stark geprägt hat.
Introduction Complex psychopathological and behavioral symptoms, such as delusions and aggression against care providers, are often the primary cause of acute hospital admissions of elderly patients to emergency units and psychiatric departments. This issue resembles an interdisciplinary clinically highly relevant diagnostic and therapeutic challenge across many medical subjects and general practice. At least 50% of the dramatically growing number of patients with dementia exerts aggressive and agitated symptoms during the course of clinical progression, particularly at moderate clinical severity. Methods Commonly used rating scales for agitation and aggression are reviewed and discussed. Furthermore, we focus in this article on benefits and limitations of all available data of anticonvulsants published in this specific indication, such as valproate, carbamazepine, oxcarbazepine, lamotrigine, gabapentin and topiramate. Results To date, most positive and robust data are available for carbamazepine, however, pharmacokinetic interactions with secondary enzyme induction limit its use. Controlled data of valproate do not seem to support the use in this population. For oxcarbazepine only one controlled but negative trial is available. Positive small series and case reports have been reported for lamotrigine, gabapentin and topiramate. Conclusions So far, data of anticonvulsants in demented patients with behavioral disturbances are not convincing. Controlled clinical trials using specific, valid and psychometrically sound instruments of newer anticonvulsants with a better tolerability profile are mandatory to verify whether they can contribute as treatment option in this indication.
Mit der vorliegenden Arbeit wurde die Nutzbarkeit morphologischer und anatomischer Merkmale aus den Bereichen des Fruchtknotens und der Samenanlangen für die Systematik und Taxonomie der Bromelioideae (Bromeliaceae) untersucht. Hierzu wurden 30 Merkmale im Bereich des Fruchtknotens und der Samenanlagen definiert und anhand anatomischer Schnittpräparate die Verteilung der Merkmalsausprägungen an 102 Arten aus 28 (von 32) Gattungen der Unterfamilie Bromelioideae sowie zwei Vertretern der Unterfamilie Pitcairnioideae als Vergleichgruppe ermittelt. Allein 41 Taxa entstammten der größten und als polyphyletisch anzunehmenden Gattung Aechmea mit Vertretern aus allen sieben Untergattungen. Die Auswertung der Merkmalsverteilung erfolgte einerseits im Hinblick auf eine funktionale Deutung beobachteter Kopplungen bestimmter Strukturen im ökologischen Kontext und zum anderen unter taxonomischen Gesichtspunkten im Hinblick auf Beantwortung der Fragen, wieweit derzeitige Gattungsumgrenzungen von den hier untersuchten Merkmalen unterstützt werden, bzw. wie weit Anregungen zur Abänderung bestehender Konzepte abgeleitet werden können, welche Beziehungen zwischen den Untergattungen von Aechmea und anderen Gattungen der Bromelioideae bestehen und wodurch sich basale Linien der Bromelioideae von den abgeleiteten Formen der „Eu- Bromelioideae“ im Sinne von SCHULTE (2007) unterscheiden lassen. Um diese Fragen zu beantworten, wurden zwei unterschiedliche Ansätze kombiniert. Die Verteilung der Merkmalszustände wurde einerseits auf Topologien geplottet, die aus publizierte Phylogenien mit genetischen Merkmalen als Datenquelle beruhen. Desweiteren wurden neue Parsimonieanalysen durchgeführt a) auf der Grundlage einer morphologischen Datenmatrix mit den 30 selbst erhobenen Merkmalen aus dem Fruchtknoten- und Samenbereich, b) einer weiteren Matrix, in die fünf weitere selbst erhobene Merkmale aus dem floralen Bereich eingehen und schließlich c) einem Datensatz, in den zusätzlich acht aus der Literatur entnommene Angaben zur Morphologie und Ökologie der untersuchten Pflanzen eingingen. Die aus den molekularen Analysen von SCHULTE et al. (2005) hervorgehende Gliederung der Unterfamilie in eine paraphyletische Gruppe von basalen Linien und der von SCHULTE (2007) als „Eu-Bromelioideae“ bezeichneten monophyletischen Gruppe abgeleiteterer Gattungen findet eine deutliche Entsprechung in Merkmalen des Fruchtknotenbereichs und der Samenanlagen. Die untersuchten Vertreter der basalen Linien besitzen alle ± rechtwinklig von der Fruchtknotenachse abspreizende Samenanlagen, diese sind auf mehr als 70% der Fruchtknotenachse verteilt und die Mikropyle ist stets relativ lang ausgebildet (>100 micro m). Eine der Kerninnovationen der Eu-Bromelioiden scheint die Entwicklung des chalazalen Samenanhängsels als Hilfsinstrument bei der Besiedlung glatter Oberflächen gewesen zu sein. Diese Struktur findet sich nur bei Eu-Bromelioideae und ist stets bereits an der Samenanlage vorgebildet. Sekundär scheint dieses chalazale Anhängsel innerhalb der Eu-Bromelioideae allerdings auch immer wieder verloren gegangen zu sein. Die Umgrenzung der meisten Gattungen sowohl der basalen Linien als auch der Eu-Bromelioideae konnten in ihrer jetzigen Form anhand der Merkmale des Fruchtknotenbereichs und der Samenanlagen nachvollzogen werden. Eine Ausnahme hiervon stellt lediglich die hochgradig polyphyletische Gattung Aechmea s.l. dar. Für keine der untersuchten Gattungen konnten synapomorphe Merkmalszustände erkannt werden, vielmehr gibt es jeweils gattungsspezifische Kombinationen von Merkmalen. Die Ausprägungen der Einzelmerkmale dagegen sind stets auch in anderen Verwandschaftsgruppen zu beobachten. Die hier untersuchten Merkmale unterstreichen das für die Bromelioideae seit langem bekannte Phänomen eines extrem hohen Homoplasiegrades in nahezu allen morphologischen Strukturen. Selbst für den Fruchtknoten lassen sich klare Abhängigkeiten der Merkmalsausprägungen von ökologischen Selektionsfaktoren erkennen. Insbesondere scheinen funktionale Notwendigkeiten im Kontext der Nektarsekretion und der Bestäubungsökologie für die Merkmalsausprägung des Fruchtknotens eine wichtige Rolle zu spielen. Die Samenanlage ist zwar zum Zeitpunkt der Anthese noch nicht direkten Selektionsdrücken ausgesetzt, ihre Merkmale sind aber nur dann zu verstehen, wenn die Funktion hier bereits angelegter Strukturen (wie z.B. der chalazalen Samenanhängsel) im Kontext mit den reifen Samen gedeutet wird.
Die Aufklärung der dreidimensionalen Helix-Struktur der DNA, des Trägermoleküls der genetischen Information aller Lebewesen, durch Watson und Crick im Jahre 1953 ermöglichte eine ganz neue Sichtweise auf ihre Eigenschaften und viele zelluläre Prozesse. Von besonderem Interesse sind hier u.a. Mechanismen, bei denen die DNA an den Phosphaten nucleophil substituiert wird, wie dies beispielsweise bei der Rekombination oder der Transkription geschieht. Dies ist daher interessant, weil sich die DNA gegenüber nucleophilen Angriffen in verschiedenen Experimenten als überaus stabil und reaktionsträge gezeigt hat. Spezialisierte Enzyme wie die Staphylokokkennuklease oder Restriktionsendonukleasen nutzen u.a. Metall-Ionen, um Phosphoryltransfer-Reaktionen zu katalysieren und in eine akzeptable Zeitskala zu verschieben. Die Topoisomerase vom Typ I zeigt eindrucksvoll, dass Katalyse solcher Reaktionen auch ohne Metall-Ion möglich ist, womit auch gleichzeitig die Quelle für eine potentielle oxidative Schädigung der DNA entfernt ist. Leider ist die Palette der natürlich vorkommenden Enzyme begrenzt. Die Erforschung und Entwicklung von künstlichen Nukleasen ermöglicht daher potentiell den zukünftigen Einsatz neuer, maßgeschneiderter Werkzeuge für die Biochemie und die Biotechnologie, sowie langfristig die Bereitstellung neuartiger Chemotherapeutika. Vom aktiven Zentrum der Staphylokokkennuklease abgeleitete Moleküle auf Bisguanidinium-Naphthol-Basis bzw. deren Derivate zeigten in der Vergangenheit deutliche Aktivität als metallfreie, unspezifische Spalter von Plasmid-DNA. Die vorliegende Arbeit beschreibt die weitere Entwicklung und Charakterisierung neuer unspezifischer und potentiell sequenzselektiver Bisguanidinium-Naphthol-Derivate. Hierbei wurde eine neue, zuverlässige Synthesestrategie für Bisguanidinium-Naphthole und parallel dazu ein neuer und flexibler Weg der Flüssigphasen-Synthese von DNA-bindenden Polyamiden ausgearbeitet, um daraus DNA-bindende Konjugate herzustellen. Vier unspezifische Moleküle (45, 94, 95, 97) und zwei Konjugate (46 und 140) wurden dann bei physiologischen Bedingungen auf ihre Spaltaktivität gegenüber Plasmid-DNA und linearer Duplex-DNA untersucht. Bei allen oben genannten Verbindungen konnte - verglichen mit der Stamm-Verbindung 36 aus Vorgängerarbeiten - eine erhöhte Aktivität gegenüber Plasmid-DNA bestimmt werden, die im Falle der Konjugate zwischen 4000- und 8000-fach liegt. Zur weiteren Charakterisierung wurden Experimente in Anwesenheit von EDTA oder Mg2+, zur pH-Abhängigkeit und zur Kinetik der Spalt-Reaktion durchgeführt. Erste Testreihen zum Nachweis sequenzselektiver DNA-Spaltung lieferten kein abschließendes Ergebnis, gaben jedoch erste Hinweise auf Selektivität, welche zur Zeit näher untersucht und überprüft werden.
Entwicklung eines bioartifiziellen Nierentubuluskonstruktes auf Basis humaner Nierenepithelzellen
(2009)
Bei einem chronischen oder akuten Ausfall der Niere stehen im klinischen Alltag extrakorporale Nierenersatzverfahren, wie die Hämodialyse, Hämofiltration und Hämodiafiltration zur Verfügung. Die genannten medizinischen Verfahren bilden nur die physikalischen Prinzipien des Glomerulus ab und können die, über eine reine Stofftrennung hinausgehenden, im Besonderen die komplexen, physiologischen Funktionen des renalen Tubulussystems nicht nachbilden. Die mit dem Ausfall der Nierenfunktion verbundenen metabolischen und endokrinen Störungen werden somit nicht ausreichend korrigiert und sind Ursache der hohen Morbidität und Mortalität dieser Patientengruppe durch kardio-vaskuläre sowie inflammatorische Komplikationen. Mit der Anwendung des Tissue Engineerings, der Integration von Zellen bzw. Geweben und deren biologischer Funktionen in form- und funktionsgebende Substrate stünden für diese Problematik Methoden zur Verfügung, die fehlenden biologischen Funktionen der Tubulusepithelien der Niere in die bereits vorhandenen, modernen Nierenersatztherapien zu integrieren und den Patienten zur Verfügung zu stellen. Im Rahmen dieser Arbeit wurden Membranmaterialien, Kulturbedingungen wie Sauerstoffbedarf, Medienformulierungen und Strömungszustände identifiziert, Systeme und Methoden entwickelt, die es ermöglichen, ein BTK mit primären, humanen Tubuluszellen zu bilden und über mikroskopische Methoden den Differenzierungsstatus der Zellen innerhalb der Membrankapillaren zu erfassen. Der Sauerstoffbedarf distaler und proximaler Tubulusepithelzellen wurde unter verschiedenen Bedingungen ermittelt und führte zusammen mit einem Literaturvergleich sowie theoretischen Betrachtungen der maximalen Scherkräfte zur Auslegung der in vitro Perfusionsparameter des entwickelten Kultursystems. Es konnte ein klinisch etabliertes Membranmaterial identifiziert werden, welches den primären Zellen ohne vorherige Bioaktivierung als ein optimales Substrat dient und somit spätere Zulassungsverfahren für den klinischen Einsatz vereinfacht. Die Entwicklung eines serumarmen Mediums für die Kultur der primären Zellen stellte sich als wichtigster Schritt in der Übertragung der zuvor mit permanenten Zelllinien entwickelten Systeme und Methoden heraus. Mittels mikroskopischer Methoden (REM & CLSM) konnte die Differenzierung der verwendeten Tubulusepithelzellen innerhalb der Hohlfasermodule anhand spezifischer Marker nachgewiesen und somit der Erfolg der in dieser Arbeit entwickelten Systeme und Methoden dokumentiert werden. Trotz des Nachweises der prinzipiellen Machbarkeit im Labormaßstab, stellt die verwendete Zellquelle aufgrund der geringen Verfügbarkeit im Upscaling Prozess vom Labor hin zu einem klinischen Therapieverfahren, die größte Hürde dar. Aktuelle Entwicklungen bei der Identifizierung adulter Stammzellfraktionen der Niere, im Besonderen der Beitrag CD133+ Zellen bei der Tubulusregeneration wurden in dieser Arbeit aufgegriffen. Die Ergebnisse des durchgeführten CD133 Screenings der verwendeten Zellfraktionen zeigen, dass gerade die hochaufgereinigten, proximalen und distalen Fraktionen einen verminderten Anteil dieser potentiellen Stammzellfraktion enthalten. Weniger aufgereinigte Fraktionen könnten somit eine Alternative bei der zukünftigen Entwicklung von bioartifiziellen Tubuluskonstrukten darstellen.
Seit den 1980er Jahren erfreut sich die kritische Theorie im intellektuellen Diskurs Chinas großer Beliebtheit. Dank der chinesischen Reformpolitik wird die Sozialphilosophie der Frankfurter Schule zunehmend als Methode verwendet, um den politischen Alltag und den gesellschaftlichen Wandel kritisch zu analysieren. Hierbei spielen die Schriften von Jürgen Habermas und besonders seine Ansichten zur Zivilgesellschaft, Öffentlichkeit und zur Schlüsselrolle der Kommunikation eine wichtige Rolle. Im Rahmen der vom Interdisziplinären Zentrum für Ostasienwissenschaften der Goethe-Universität veranstalteten Konferenz »Kritik – Theorie – Kritische Theorie. Die Frankfurter Schule in China« gab der Habermas-Experte und Übersetzer Cao Weidong Einblick in das chinesische »Habermas-Fieber«.
A. Einleitung B. Börsenbewertung und Ertragswertverfahren bei der Verschmelzung börsennotierter Gesellschaften I. Grundsatz: Normadäquate (anlaßadäquate) Unternehmensbewertung II. Ausgleich und zu kompensierende Nachteile für die Aktionäre der übertragenden Gesellschaft 1. Fungibilitätsverlust 2. Grundlagenänderung; Kursabschlag wegen negativer Synergien 3. Quotenminderung 4. Unter- und Überbewertung; Vermögensverwässerung III. Kein genereller Vorrang der Börsenbewertung bei Ermittlung des Umtauschverhältnisses 1. Auslegung 2. Generelle Einwände gegen die Ertragswertmethode 3. Eignung von Börsenkursen für die Unternehmensbewertung IV. Zusammenfassung C. Wahl der Bewertungsmethode bei der Verschmelzung voneinander unabhängiger Gesellschaften I. Allgemeines II. Die Bedeutung der Rechtsprechung des BVerfG 1. Die Entscheidungen in den Fällen DAT/Altana und Moto Meter AG 2. Die Rechtsprechung der Oberlandesgerichte 3. Die Auffassungen in der Literatur 4. Stellungnahme III. Pflichten des Vorstands bei der Wahl der Bewertungsmethode 1. Pflicht zur Vereinbarung eines „angemessenen“ Umtauschverhältnisses 2. Gewährleistungen der „Angemessenheit“ 3. Die Pflicht zur Wahl einer geeigneten Bewertungsmethode 4. Die Anwendung der ausgewählten Bewertungsmethode 5. Behandlung von Divergenzen zwischen Ertragswert- und Börsenwertrelation 6. Anhang: Börsenkurse als Grundlage der Schätzung gemäß § 287 Abs. 2 ZPO im Spruchverfahren IV. Zusammenfassung D. Bewertungsmethoden und gerichtliche Kontrolle bei konzerninternen Verschmelzungen I. Allgemeines II. Die Bedeutung der Rechtsprechung des BVerfG 1. Der Meinungsstand in Rechtsprechung und Literatur 2. Keine Bindung der Fachgerichte gemäß § 31 Abs. 1 BVerfGG 3. Möglichkeit differenzierender, verfassungskonformer Auslegung der §§ 4 ff UmwG? 4. Sachgründe für die Übertragung der Börsenkursrechtsprechung des BVerfG auf upstream mergers 5. Einwände und Stellungnahme 6. Meistbegünstigungsgrundsatz zugunsten der Aktionäre der übertragenden Gesellschaft? 7. Die Bedeutung des Börsenwerts als Untergrenze III. Zusammenfassung
Die Europäische Aktiengesellschaft (SE) gestattet es bekanntlich, die Mitbestimmung der Arbeitnehmer im Wege einer Vereinbarungslösung zu regeln und die Größe des Aufsichtsrats zu reduzieren. Zahlreiche deutsche Unternehmen haben aus diesem Grund die Rechtsform der AG verlassen und diejenige der SE gewählt. Um dieser „Flucht aus der AG” zu begegnen, hat der aus sieben unabhängigen Hochschullehrern bestehende Arbeitskreis „Unternehmerische Mitbestimmung” einen Gesetzesvorschlag entwickelt, der eine Verhandlungslösung auch für die AG und die GmbH zulässt und eine arbeitsfähige Aufsichtsratsgröße vorsieht. Der im Folgenden abgedruckte Vorschlag ist in ZIP/Zeitschrift für Wirtschaftsrecht 2009, S. 885 ff veröffentlicht.
Mit Dollys Geburt am 27. Februar 1997 gelingt es Forschern erstmals, die ausdifferenzierte Körperzelle eines erwachsenen Schafes so zurückzuprogrammieren, dass aus ihr ein neuer Embryo und damit ein (fast) identischer Klon des Muttertieres entsteht. Das Ergebnis ist ein kleines Schäfchen und ein Sturm an moralischer Entrüstung. Menschen zu klonen, über lange Zeit als unmöglich postuliert, ist plötzlich in den Bereich des Machbaren gerückt. Auch Habermas lässt sich von diesen Neuigkeiten beunruhigen. In einem kurzen Artikel in der »Süddeutschen Zeitung« vom 17. / 18. Januar 1998 beschreibt er das Klonen von Menschen als eine neue Form der Sklaverei. Der Klon könnte der Möglichkeit beraubt werden, sich als freies und gleiches Mitglied der moralischen Gemeinschaft zu verstehen. »Für den Klon verstetigt sich nämlich in der Definition eines unwiderruflichen Kodes ein Urteil, das eine andere Person vor seiner Geburt über ihn verhängt hat.« (Habermas 1998, 245) Anders als bei der Erziehung könne der Klon, der um seine Herkunft weiß und mit dieser hadert, sich nicht von seiner genetischen Festlegung durch eine andere Person lösen. Vielleicht bliebe es ihm daher für immer versagt, sich als alleiniger Autor seiner Lebensgeschichte zu verstehen und für diese die volle Verantwortung zu übernehmen. Auch die Gleichheit von Klon und demjenigen, der eingreift, sei gefährdet: Anders als in traditionellen Eltern-Kind-Beziehungen lassen sich die sozialen Rollen von Kloner und Geklontem niemals vertauschen. (Habermas 2002, 112)
Gibt es eine moderne Religion? : Jürgen Habermas und die Idee der "postsäkularen Gesellschaft"
(2009)
Das Verhältnis von Religion und Moderne ist in jüngster Zeit wieder zu einem heißen Konfliktherd geworden. So geht es beim Streit um die Piusbrüderschaft im Kern darum, ob eine religiöse Tradition die Kontinuität und Verbindlichkeit ihrer Überlieferung aufrechterhalten und zugleich an wesentliche Einsichten und normative Prinzipien der Moderne anschließen kann. Die traditionalistischen Kritiker des II. Vatikanischen Konzils behaupten, dass religiöse Institutionen wie die katholische Kirche ihre Identität in dem Maße verlieren, in dem sie ein bejahendes und konstruktives Verhältnis zur modernen Gesellschaft entwickeln. Die Anerkennung der Menschenrechte und der Ideen der Französischen Revolution durch das Konzil, also die Akzeptanz des Prinzips der Freiheit in Gestalt der Religionsfreiheit, der Gleichheit als Gleichberechtigung und Gleichwertigkeit aller Religionen und der Brüderlichkeit im Sinne einer gemeinsamen und solidarischen Weltverantwortung »aller Menschen guten Willens« bildet für die reaktionären Kritiker den eigentlichen Skandal der Öffnung der Kirche zur säkularen Moderne. Die unbeholfenen und viele empörenden Versuche der Resozialisierung der Piusbrüder sind letztlich unvollständige und unvollkommene Ansätze, auf eine kulturelle und gesellschaftliche Konstellation zu reagieren, für die Jürgen Habermas den prägnanten Ausdruck »postsäkulare Gesellschaft« geprägt hat. Diese Situation ist nach Habermas nämlich dadurch gekennzeichnet, dass sich religiöse Gemeinschaften auch in einer modernen Lebenswelt dauerhaft einrichten und in ihr fortbestehen. Wir haben laut Habermas Abschied zu nehmen von der Vorstellung eines linearen historischen Prozesses, der zwangsläufig zum Absterben der Religion führen wird. Allerdings schreitet die gesellschaftliche Säkularisierung im Sinne einer Ausdifferenzierung gesellschaftlicher Systeme und einer Pluralisierung von Weltanschauungen weiter voran.
Krankhafte Erweiterungen der Bauchschlagader (Aorten-Aneurysmen), sind wie tickende Zeitbomben: Wenn sie platzen, stirbt der Betroffene oft noch bevor er ein Krankenhaus erreicht an inneren Blutungen. Niemand kann mit Bestimmtheit vorhersagen, wann dies eintritt, aber gemeinsam mit Ingenieuren finden Gefäßchirurgen jetzt neue Anhaltspunkte dafür, wann eine Operation ratsam ist.
Mitochondrien sind die Kraftwerke unserer Zellen. In ihnen findet die Zellatmung statt, die unseren Körper mit lebenswichtiger Energie versorgt. Zusätzlich teilen sich die Zellorganellen und verschmelzen wieder miteinander im Minutentakt. Was aber passiert, wenn Teile dieses dynamischen Geflechts Defekte aufweisen? Die Antwort dazu könnte ein Protein sein, das auf zwei verschiedene Weisen in die Mitochondrien-Membranen eingebaut wird. Liegt keine kurze Form des Proteins vor, ist das ein Hinweis dafür, dass die Organellen defekt sind. Die Mitochondrien verbrennen die mit der Nahrung zugeführten Kohlenhydrate und Fette unter Verbrauch von Sauerstoff zu Kohlendioxid und Wasser. Bei diesem Vorgang, der Zellatmung, wird über eine Reihe von Proteinkomplexen ein elektrochemisches Potenzial aufgebaut, das zur Produktion des Energieträgers ATP (Adenosintriphosphat) genutzt wird. ATP kann aus den Mitochondrien abtransportiert werden und steht somit als eine Art Treibstoff für alle Stoffwechselprozesse zur Verfügung. Die Arbeit der Mitochondrien ist der Hauptgrund für unseren täglichen Sauerstoffbedarf. Außerdem tragen die Nano-Kraftwerke der Zelle dazu bei, unsere Körpertemperatur auf 37 °C aufrechtzuerhalten. Aufgrund dieser zentralen Funktionen ist es nicht verwunderlich, dass eine Reihe von Krankheiten beim Menschen durch den Funktionsverlust von Mitochondrien verursacht oder beeinflusst wird. Das sind in erster Linie neurologische oder muskuläre Erkrankungen, aber auch Diabetes, Fettleibigkeit, verschiedene Formen von Krebs und Alterungsprozesse. Folglich ist es von immenser Bedeutung zu verstehen, wie Mitochondrien funktionieren, wie sie ihre Funktionalität aufrechterhalten und gegebenenfalls repariert oder entsorgt werden können. Dem können wir am Wissenschaftsstandort Frankfurt hervorragend nachgehen, da sich einige international ausgewiesene Forschungsgruppen in den Fachbereichen Medizin, Biologie, Chemie und am Max-Planck-Institut für Biophysik mit verschiedenen Aspekten der mitochondrialen Biologie befassen. In zahlreichen interdisziplinären Kooperationen wird so versucht, dieses komplexe System besser zu verstehen.
Jeder Mensch kämpft täglich erfolgreich mit Krankheitserregern, ohne dass er sich der komplexen molekularen Vorgänge dabei bewusst wäre. Wie in einem Hollywood-Streifen geht es rasant zur Sache. Ist das Immunsystem angeschlagen oder trifft es auf starke Gegner, kann eine Infektion binnen weniger Tage außer Kontrolle geraten und lebensbedrohliche Reaktionen hervorrufen. Der menschliche Organismus benötigt eine effiziente Verteidigungsstrategie gegen die Eindringlinge und muss, ebenso wie der britische Geheimdienst im Bond-Film, in die Ausbildung geübter Agenten investieren, Agenten mit Doppel-Null-Status. Agenten wie James Bond.
Algorithmic trading engines versus human traders – do they behave different in securities markets?
(2009)
After exchanges and alternative trading venues have introduced electronic execution mechanisms worldwide, the focus of the securities trading industry shifted to the use of fully electronic trading engines by banks, brokers and their institutional customers. These Algorithmic Trading engines enable order submissions without human intervention based on quantitative models applying historical and real-time market data. Although there is a widespread discussion on the pros and cons of Algorithmic Trading and on its impact on market volatility and market quality, little is known on how algorithms actually place their orders in the market and whether and in which respect this differs form other order submissions. Based on a dataset that – for the first time – includes a specific flag to enable the identification of orders submitted by Algorithmic Trading engines, the paper investigates the extent of Algorithmic Trading activity and specifically their order placement strategies in comparison to human traders in the Xetra trading system. It is shown that Algorithmic Trading has become a relevant part of overall market activity and that Algorithmic Trading engines fundamentally differ from human traders in their order submission, modification and deletion behavior as they exploit real-time market data and latest market movements.
Background, aim, and scope Food consumption is an important route of human exposure to endocrine-disrupting chemicals. So far, this has been demonstrated by exposure modeling or analytical identification of single substances in foodstuff (e.g., phthalates) and human body fluids (e.g., urine and blood). Since the research in this field is focused on few chemicals (and thus missing mixture effects), the overall contamination of edibles with xenohormones is largely unknown. The aim of this study was to assess the integrated estrogenic burden of bottled mineral water as model foodstuff and to characterize the potential sources of the estrogenic contamination. Materials, methods, and results In the present study, we analyzed commercially available mineral water in an in vitro system with the human estrogen receptor alpha and detected estrogenic contamination in 60% of all samples with a maximum activity equivalent to 75.2 ng/l of the natural sex hormone 17beta-estradiol. Furthermore, breeding of the molluskan model Potamopyrgus antipodarum in water bottles made of glass and plastic [polyethylene terephthalate (PET)] resulted in an increased reproductive output of snails cultured in PET bottles. This provides first evidence that substances leaching from plastic food packaging materials act as functional estrogens in vivo. Discussion and conclusions Our results demonstrate a widespread contamination of mineral water with xenoestrogens that partly originates from compounds leaching from the plastic packaging material. These substances possess potent estrogenic activity in vivo in a molluskan sentinel. Overall, the results indicate that a broader range of foodstuff may be contaminated with endocrine disruptors when packed in plastics. Keywords Endocrine disrupting chemicals - Estradiol equivalents - Human exposure - In vitro effects - In vivo effects - Mineral water - Plastic bottles - Plastic packaging - Polyethylene terephthalate - Potamopyrgus antipodarum - Yeast estrogen screen - Xenoestrogens
The role of microglial cells in the pathogenesis of Alzheimer’s disease (AD) neurodegeneration is unknown. Although several works suggest that chronic neuroinflammation caused by activated microglia contributes to neurofibrillary degeneration, anti-inflammatory drugs do not prevent or reverse neuronal tau pathology. This raises the question if indeed microglial activation occurs in the human brain at sites of neurofibrillary degeneration. In view of the recent work demonstrating presence of dystrophic (senescent) microglia in aged human brain, the purpose of this study was to investigate microglial cells in situ and at high resolution in the immediate vicinity of tau-positive structures in order to determine conclusively whether degenerating neuronal structures are associated with activated or with dystrophic microglia. We used a newly optimized immunohistochemical method for visualizing microglial cells in human archival brain together with Braak staging of neurofibrillary pathology to ascertain the morphology of microglia in the vicinity of tau-positive structures. We now report histopathological findings from 19 humans covering the spectrum from none to severe AD pathology, including patients with Down’s syndrome, showing that degenerating neuronal structures positive for tau (neuropil threads, neurofibrillary tangles, neuritic plaques) are invariably colocalized with severely dystrophic (fragmented) rather than with activated microglial cells. Using Braak staging of Alzheimer neuropathology we demonstrate that microglial dystrophy precedes the spread of tau pathology. Deposits of amyloid-beta protein (A beta) devoid of tau-positive structures were found to be colocalized with non-activated, ramified microglia, suggesting that A beta does not trigger microglial activation. Our findings also indicate that when microglial activation does occur in the absence of an identifiable acute central nervous system insult, it is likely to be the result of systemic infectious disease. The findings reported here strongly argue against the hypothesis that neuroinflammatory changes contribute to AD dementia. Instead, they offer an alternative hypothesis of AD pathogenesis that takes into consideration: (1) the notion that microglia are neuron-supporting cells and neuroprotective; (2) the fact that development of non-familial, sporadic AD is inextricably linked to aging. They support the idea that progressive, aging-related microglial degeneration and loss of microglial neuroprotection rather than induction of microglial activation contributes to the onset of sporadic Alzheimer’s disease. The results have far-reaching implications in terms of reevaluating current treatment approaches towards AD.
Background The role of the Fcgamma receptor IIa (FcgammaRIIa), a receptor for C-reactive protein (CRP), the classical acute phase protein, in atherosclerosis is not yet clear. We sought to investigate the association of FcgammaRIIa genotype with risk of coronary heart disease (CHD) in two large population-based samples. Methods FcgammaRIIa-R/H131 polymorphisms were determined in a population of 527 patients with a history of myocardial infarction and 527 age and gender matched controls drawn from a population-based MONICA- Augsburg survey. In the LURIC population, 2227 patients with angiographically proven CHD, defined as having at least one stenosis [greater than or equal to]50%, were compared with 1032 individuals with stenosis <50%. Results In both populations genotype frequencies of the FcgammaRIIa gene did not show a significant departure from the Hardy-Weinberg equilibrium. FcgammaRIIa R(-131)->H genotype was not independently associated with lower risk of CHD after multivariable adjustments, neither in the MONICA population (odds ratio (OR) 1.08; 95% confidence interval (CI) 0.81 to 1.44), nor in LURIC (OR 0.96; 95% CI 0.81 to 1.14). Conclusion Our results do not confirm an independent relationship between FcgammaRIIa genotypes and risk of CHD in these populations.
Background Treatment options for metastatic renal cell carcinoma (RCC) are limited due to resistance to chemo- and radiotherapy. The development of small-molecule multikinase inhibitors have now opened novel treatment options. The influence of the receptor tyrosine kinase inhibitor AEE788, applied alone or combined with the mammalian target of rapamycin (mTOR) inhibitor RAD001, on RCC cell adhesion and proliferation in vitro has been evaluated. Methods RCC cell lines Caki-1, KTC-26 or A498 were treated with various concentrations of RAD001 or AEE788 and tumor cell proliferation, tumor cell adhesion to vascular endothelial cells or to immobilized extracellular matrix proteins (laminin, collagen, fibronectin) evaluated. The anti-tumoral potential of RAD001 combined with AEE788 was also investigated. Both, asynchronous and synchronized cell cultures were used to subsequently analyze drug induced cell cycle manipulation. Analysis of cell cycle regulating proteins was done by western blotting. Results RAD001 or AEE788 reduced adhesion of RCC cell lines to vascular endothelium and diminished RCC cell binding to immobilized laminin or collagen. Both drugs blocked RCC cell growth, impaired cell cycle progression and altered the expression level of the cell cycle regulating proteins cdk2, cdk4, cyclin D1, cyclin E and p27. The combination of AEE788 and RAD001 resulted in more pronounced RCC growth inhibition, greater rates of G0/G1 cells and lower rates of S-phase cells than either agent alone. Cell cycle proteins were much more strongly altered when both drugs were used in combination than with single drug application. The synergistic effects were observed in an asynchronous cell culture model, but were more pronounced in synchronous RCC cell cultures. Conclusions Potent anti-tumoral activitites of the multikinase inhibitors AEE788 or RAD001 have been demonstrated. Most importantly, the simultaneous use of both AEE788 and RAD001 offered a distinct combinatorial benefit and thus may provide a therapeutic advantage over either agent employed as a monotherapy for RCC treatment.
Background Many systems in nature are characterized by complex behaviour where large cascades of events, or avalanches, unpredictably alternate with periods of little activity. Snow avalanches are an example. Often the size distribution f(s) of a system's avalanches follows a power law, and the branching parameter sigma, the average number of events triggered by a single preceding event, is unity. A power law for f(s), and sigma=1, are hallmark features of self-organized critical (SOC) systems, and both have been found for neuronal activity in vitro. Therefore, and since SOC systems and neuronal activity both show large variability, long-term stability and memory capabilities, SOC has been proposed to govern neuronal dynamics in vivo. Testing this hypothesis is difficult because neuronal activity is spatially or temporally subsampled, while theories of SOC systems assume full sampling. To close this gap, we investigated how subsampling affects f(s) and sigma by imposing subsampling on three different SOC models. We then compared f(s) and sigma of the subsampled models with those of multielectrode local field potential (LFP) activity recorded in three macaque monkeys performing a short term memory task. Results Neither the LFP nor the subsampled SOC models showed a power law for f(s). Both, f(s) and sigma, depended sensitively on the subsampling geometry and the dynamics of the model. Only one of the SOC models, the Abelian Sandpile Model, exhibited f(s) and sigma similar to those calculated from LFP activity. Conclusions Since subsampling can prevent the observation of the characteristic power law and sigma in SOC systems, misclassifications of critical systems as sub- or supercritical are possible. Nevertheless, the system specific scaling of f(s) and sigma under subsampling conditions may prove useful to select physiologically motivated models of brain function. Models that better reproduce f(s) and sigma calculated from the physiological recordings may be selected over alternatives.
Background Evidence-based guidelines potentially improve healthcare. However, their de-novo-development requires substantial resources - especially for complex conditions, and adaptation may be biased by contextually influenced recommendations in source guidelines. In this paper we describe a new approach to guideline development - the systematic guideline review method (SGR), and its application in the development of an evidence-based guideline for family physicians on chronic heart failure (CHF). Methods A systematic search for guidelines was carried out. Evidence-based guidelines on CHF management in adults in ambulatory care published in English or German between the years 2000 and 2004 were included. Guidelines on acute or right heart failure were excluded. Eligibility was assessed by two reviewers, methodological quality of selected guidelines was appraised using the AGREE-instrument, and a framework of relevant clinical questions for diagnostics and treatment was derived. Data were extracted into evidence tables, systematically compared by means of a consistency analysis and synthesized in a preliminary draft. Most relevant primary sources were re-assessed to verify the cited evidence. Evidence and recommendations were summarized in a draft guideline. Results Of 16 included guidelines five were of good quality. A total of 35 recommendations were systematically compared: 25/35 were consistent, 9/35 inconsistent, and 1/35 unratable (derived from a single guideline). Of the 25 consistencies, 14 based on consensus, seven on evidence and four differed in grading. Major inconsistencies were found in 3/9 of the inconsistent recommendations. We re-evaluated the evidence for 17 recommendations (evidence-based, differing evidence levels and minor inconsistencies) the majority was congruent. Incongruencies were found, where the stated evidence could not be verified in the cited primary sources, or where the evaluation in the source guidelines focused on treatment benefits and underestimated the risks. The draft guideline was completed in 8.5 man-months. The main limitation to this study was the lack of a second reviewer. Conclusions The systematic guideline review including framework development, consistency analysis and validation is an effective, valid, and resource saving-approach to the development of evidence-based guidelines.
Nicht zu vergessende Moleküle ... : flexibles "Networking" von Nervenzellen formt das Gedächtnis
(2009)
Ein funktionierendes Gedächtnis beruht darauf, dass die Kontakte zwischen den Milliarden Nervenzellen in unserem Gehirn sich ständig verändern und anpassen. Häufig verwendete Signalwege werden verstärkt und ausgebaut, wie eine Landstraße zu einer Schnellstraße. Weniger häufig benutze Signalwege können dagegen abgebaut werden. Die Signalübertragung verlangsamt sich wie der Verkehr auf einer lange nicht mehr instand gehaltenen Straße. Will man diese Prozesse auf molekularer Ebene verstehen, muss man die Synapsen näher betrachten. Das sind spezialisierte Kontaktstellen, die es den Nervenzellen ermöglichen, hochkomplexe Netzwerke, sogenannte Schaltkreise, zu knüpfen. Die Flexibilität dieser Schaltkreise ermöglicht es uns, Informationen zu verarbeiten und entsprechend zu reagieren. Inzwischen kennt man eine Fülle von Boten-Molekülen, Rezeptoren und Liganden, die diese Prozesse auf molekularer Ebene steuern.
Antibiotika-Resistenz: Die Tricks der Bakterien : Pumpsysteme werfen die Arzneistoffe aus der Zelle
(2009)
Immer häufiger sind Bakterien resistent gegen ein bestimmtes Antibiotikum, oft auch gleich gegen mehrere. Eine Infektion, die von solchen multiresistenten Bakterien verursacht wird, kann nicht mehr mit Antibiotika bekämpft werden. Im schlimmsten Fall führt sie bei immungeschwächten Patienten zum Tod. Um zielgerichtet neue und wirkungsvolle Medikamente entwickeln zu können, ist es wichtig zu wissen, wie die Bakterienzelle sich gegen die Zerstörung durch Antibiotika wehrt. Ein inzwischen genau entschlüsselter Mechanismus ist die Efflux-Pumpe, die für die Zelle schädliche Substanzen wieder hinausbefördert.
Wer hat nicht angesichts rauchender Schlote und verschmutzter Luft von Kraftwerken geträumt, die reinen Sauerstoff produzieren? Die Natur erbaut solche Kraftwerke täglich neu – in Pflanzen. Darin verwandelt der grüne Blattfarbstoff Chlorophyll Sonnenlicht und Kohlendioxid in Sauerstoff und Energie. Die komplexen Reaktionen laufen in mikroskopisch kleinen Maschinen – den Photosystemen – ab. Aber was haben Kraftwerke mit Kamelen zu tun? Wie auch bei den uns bekannten Kraftwerken gibt es in Pflanzen ein »Werksgelände«, die Chloroplasten. Sie besitzen einen Eingang, durch den zuweilen Moleküle passieren müssen, die so groß sind wie das sprichwörtliche Kamel, das durch ein Nadelöhr gehen soll.
Erfolgreiche Unternehmer wie SAP-Mitbegründer Dietmar Hopp oder Microsoft-Gründer Bill Gates sind Pioniere von Corporate Social Responsibility (CSR). Regelmäßig erichten die Medien über ihre vielfältigen sozialen Aktivitäten und animieren damit andere Unternehmen, sich in ähnlicher Weise zu engagieren. Welche Motive stecken dahinter? Wollen diese Firmen etwas Gutes für die Gesellschaft tun oder bestimmen Strategien, die von negativen Folgen kapitalistischen Handelns ablenken sollen, ihr altruistisches Handeln? Fußen betriebliche Maßnahmen zur Vereinbarkeit von Beruf und Familie auf sozialem Engagement, oder macht der demografi sche Wandel die verstärkte Integration von Frauen erst notwendig?
Kein deutscher Gegenwartsphilosoph findet weltweit eine solche Aufmerksamkeit wie Jürgen Habermas, der am 18. Juni 80 Jahre alt wird und bis zu seiner Emeritierung 1994 an der Goethe-Universität lehrte und forschte. In seiner Doppelrolle als Wissenschaftler und Intellektueller, als Gesellschaftstheoretiker und streitbarer Diskutant hat er nicht nur das Modell der diskursiven Vernunft kreiert, er ist zugleich Praktiker dieser Diskursivität und hat damit die intellektuellen Debatten der vergangenen Jahrzehnte maßgeblich beeinflusst – von der Reform der Hochschulen über Embryonenforschung bis zur Zukunft Europas.
Das Werk von Jürgen Habermas ragt einsam aus der Theorielandschaft unserer Tage heraus, denn ihm ist es auf einzigartige Weise gelungen, eine einheitliche Theorie in der Vielzahl der disziplinären Stimmen der Philosophie und der Sozial- und Rechtswissenschaften zu schaffen: die Theorie des Diskurses. Sie hat auf all diesen Gebieten innovativ und paradigmenbildend gewirkt, was sich nicht zuletzt daran zeigt, wie stark seine Erkenntnisse auf neuere Forschungsprogramme wirken. Ein Beispiel hierfür ist der Frankfurter Exzellenzcluster »Herausbildung normativer Ordnungen«, der seit Herbst 2007 von der Deutschen Forschungsgemeinschaft gefördert wird und unter anderem neun neue Professuren an der Goethe-Universität geschaffen und besetzt hat. In mehr als 30 Forschungsprojekten arbeiten Wissenschaftlerinnen und Wissenschaftler zu unterschiedlichen Fragestellungen der Veränderung gesellschaftlicher Ordnungen.
Riboswitches are a novel class of genetic control elements that function through the direct interaction of small metabolite molecules with structured RNA elements. The ligand is bound with high specificity and affinity to its RNA target and induces conformational changes of the RNA's secondary and tertiary structure upon binding. To elucidate the molecular basis of the remarkable ligand selectivity and affinity of one of these riboswitches, extensive all-atom molecular dynamics simulations in explicit solvent ({approx}1 µs total simulation length) of the aptamer domain of the guanine sensing riboswitch are performed. The conformational dynamics is studied when the system is bound to its cognate ligand guanine as well as bound to the non-cognate ligand adenine and in its free form. The simulations indicate that residue U51 in the aptamer domain functions as a general docking platform for purine bases, whereas the interactions between C74 and the ligand are crucial for ligand selectivity. These findings either suggest a two-step ligand recognition process, including a general purine binding step and a subsequent selection of the cognate ligand, or hint at different initial interactions of cognate and noncognate ligands with residues of the ligand binding pocket. To explore possible pathways of complex dissociation, various nonequilibrium simulations are performed which account for the first steps of ligand unbinding. The results delineate the minimal set of conformational changes needed for ligand release, suggest two possible pathways for the dissociation reaction, and underline the importance of long-range tertiary contacts for locking the ligand in the complex.
Oligonucleotides suppress PKB/Akt and act as superinductors of apoptosis in human keratinocytes
(2009)
DNA oligonucleotides (ODN) applied to an organism are known to modulate the innate and adaptive immune system. Previous studies showed that a CpG-containing ODN (CpG-1-PTO) and interestingly, also a non-CpG-containing ODN (nCpG- 5-PTO) suppress inflammatory markers in skin. In the present study it was investigated whether these molecules also influence cell apoptosis. Here we show that CpG-1-PTO, nCpG-5-PTO, and also natural DNA suppress the phosphorylation of PKB/Akt in a cell-type-specific manner. Interestingly, only epithelial cells of the skin (normal human keratinocytes, HaCaT and A-431) show a suppression of PKB/Akt. This suppressive effect depends from ODN lengths, sequence and backbone. Moreover, it was found that TGFa-induced levels of PKB/Akt and EGFR were suppressed by the ODN tested. We hypothesize that this suppression might facilitate programmed cell death. By testing this hypothesis we found an increase of apoptosis markers (caspase 3/7, 8, 9, cytosolic cytochrome c, histone associated DNA fragments, apoptotic bodies) when cells were treated with ODN in combination with low doses of staurosporin, a wellknown pro-apoptotic stimulus. In summary the present data demonstrate DNA as a modulator of apoptosis which specifically targets skin epithelial cells.
Global warming is expected to be associated with diverse changes in freshwater habitats in north-western Europe. Increasing evaporation, lower oxygen concentration due to increased water temperature and changes in precipitation pattern are likely to affect the survival ratio and reproduction rate of freshwater gastropods (Pulmonata, Basommatophora). This work is a comprehensive analyse of the climatic factors influencing their ranges both in the past and in the near future. A macroecological approach showed that for a great proportion of genera the ranges were projected to contract by 2080, even if unlimited dispersal was assumed. The forecasted warming in the cooler northern ranges predicted the emergence of new suitable areas, but also reduced drastically the available habitat in the southern part of the studied region. In order to better understand the ranges dynamics in the past and the post glacial colonisation patterns, an approach combining ecological niche modelling and phylogeography was used for two model species, Radix balthica and Ancylus fluviatilis. Phylogeographic model selection on a COI mtDNA dataset confirmed that R. balthica most likely spread from two central European disjunct refuges after the last glacial maximum. The phylogeographic analysis of A. fluviatilis, using 16S and COI mtDNA datasets, also inferred central European refugia. The absence of niche conservatism (adaptive potential) inferred for A. fluviatilis puts a cautionary note on the use of climate envelope models to predict the future ranges of this species. However, the other model species exhibited strong niche conservatism, which allow putting confidence into such predictions. A profound faunal shift will take place in Central Europe within the next century, either permitting the establishment of species currently living south of the studied region or the proliferation of organisms relying on the same food resources. This study points out the need for further investigations on the dispersal modes of freshwaters snails, since the future range size of the species depend on their ability to establish in newly available habitats. Likewise, the mixed mating system of these organisms gives them the possibility to fund a new population from a single individual. It will probably affect the colonisation success and needs further investigation.
In der äußeren plexiformen Schicht (OPL) der Säugetierretina sind die Photorezeptoren mit den Horizontal- und den Bipolarzellen verschaltet. Diese erste neuronale Verschaltungs-ebene des Sehsystems birgt eine hochkomplexe Architektur aus chemischen und elektrischen Synapsen. Sie ermöglicht die Modulation des Lichtsignals sowie die Aufspaltung der Signale in parallele Übertragungswege. In der vorliegenden Doktorarbeit wurden verschiedene Synapsensysteme in der OPL von Maus-, Kaninchen-, und Makakenretinae mittels immunhistochemischer Färbetechniken licht- und elektronen-mikroskopisch untersucht. In der Mausretina wurden die anatomischen Eigenschaften der Endfüßchen blau-empfindlicher (S-) Zapfen untersucht. Die S-Zapfenendfüßchen waren um 15 % kleiner als die der M-Zapfen, die Bereiche der Invaginierungen am S-Zapfenendfüßchen hingegen um 35 %. Eine deutliche Reduktion der Horizontalzellkontakte ging damit einher. Die Zahl der postsynaptisch von OFF-Bipolarzellen exprimierten Glutamatrezeptor- (GluR) Unterein-heiten GluR1 und GluR5 war am S-Zapfenendfüßchen um fast 50 % kleiner als an M-Zapfen. Dieser Befund spiegelte die geringe Anzahl synaptischer Kontakte von OFF-Bipolarzellen am S-Zapfen wider. Die OFF-Bipolarzelltypen 1 und/oder 2 waren für diese Reduktion verantwortlich. Diese Befunde sind ein erster Hinweis für den sogenannten Grün-OFF-Signalweg in der Mausretina. In der Makakenretina wurde die Verteilung von Protocadherin β16 (Pcdh β16) untersucht. Es konnte auf postsynaptischer Seite an den Photorezeptorterminalien gezeigt werden. Pcdh β16 lag auf den invaginierenden Spitzen von Dendriten der H1 Horizontalzellen sowie an ihren desmosome-like junctions unterhalb der Zapfenendfüßchen. An diesen Orten fielen die Pcdh β16-immunreaktiven Punkte mit den dort von H1 Zellen exprimierten GluR-Untereinheiten GluR2 - 4 und GluR6/7 zusammen. Im Zuge dieser Analyse wurde ebenfalls eine Kolokalisation dieser AMPA- (GluR2 - 4) und Kainat- (GluR6/7) Rezeptoren an den desmosome-like junctions festgestellt. Darüber hinaus zeigte eine elektronenmikroskopische Untersuchung, dass Pcdh β16 auch an flachen Synapsen in Triaden-assoziierter Position am Zapfenendfüßchen zu finden ist. Dies kann als Hinweis auf eine Expression durch flat midget Bipolarzellen oder Bipolarzellen des Typs DB3 gewertet werden. Dies lässt vermuten, dass dieses Protein an der Formation zelltypspezifischer Kontakte bzw. Synapsen beteiligt ist. In einer vergleichenden Studie der synaptischen Verteilung des zytoplasmatischen Gerüstproteins Zonula Occludens-1 (ZO-1) in Makaken-, Kaninchen- und Mausretinae zeigte sich ein sehr einheitliches sowie auch zelltypspezifisches Verteilungsmuster. ZO-1 fiel bei allen Spezies mit Connexin 36 (Cx36) an den gap junctions zwischen Photo-rezeptorterminalien und zwischen den Dendriten von OFF-Bipolarzellen zusammen. Außerdem ist ZO-1 mit gap junctions bestimmter Horizontalzellen assoziiert: In der OPL der Kaninchenretina fiel es mit Cx50 zusammen, dem Connexin der axonlosen A-Typ Horizontalzellen. An den großen gap junctions zwischen den Primärdendriten dieser Zellen bildete ZO-1 jedoch eine Zaun-ähnliche Struktur als Abgrenzung um die gap junctions herum, anstatt direkt mit den Connexinen kolokalisiert zu sein. Eine direkte Interaktion mit den Connexinen wird durch die räumliche Anordnung weitgehend ausgeschlossen, was auf eine Funktion von ZO-1 als tight- oder adherens junction Protein hindeutet. In der Mausretina fiel ZO-1 mit Cx57 an dendro-dendritischen gap junctions zwischen den Maus-Horizontalzellen zusammen. In der Makakenretina sind die Connexine der Horizontalzellen noch nicht bekannt. Trotzdem ließ sich ZO-1 den dendro-dendritischen gap junctions zwischen H1 Horizontalzellen zuordnen. Darüber hinaus zeigte sich eine enge Assoziation dieser dendro-dendritischen gap junctions mit den GluRs unterhalb der Zapfenendfüßchen an den desmosome-like junctions. Der von den GluRs ermöglichte Calcium-Einstrom könnte sich durch die räumliche Nähe zu den Connexinen modulierend auf die Leitfähigkeit der elektrischen Synapsen auswirken.
Lentiviral vectors mediate gene transfer into dividing and most non-dividing cells. Thereby, they stably integrate the transgene into the host cell genome. For this reason, lentiviral vectors are a promising tool for gene therapy. However, safety and efficiency of lentiviral mediated gene transfer still needs to be optimised. Ideally, cell entry should be restricted to the cell population relevant for a particular therapeutic application. Furthermore, lentiviral vectors able to transduce quiescent lymphocytes are desirable. Although many approaches were followed to engineer retroviral envelope proteins, an effective and universally applicable system for retargeting of lentiviral cell entry is still not available. Just before the experimental work of this thesis was started, retargeting of measles virus (MV) cell entry was achieved. This virus has two types of envelope glycoproteins, the hemagglutinin (H) protein responsible for receptor recognition and the fusion (F) protein mediating membrane fusion. For retargeting, the H protein was mutated in its interaction sites for the native MV receptors and a ligand or a single-chain antibody (scAb) was fused to its ectodomain. It was hypothesised that the retargeting system of MV can be transferred to lentiviral vectors by pseudotyping human immunodeficiency virus-1 (HIV-1) derived vector particles with the MV glycoproteins. As the unmodified MV glycoproteins did not pseudotype HIV vectors, two F and 15 H protein variants carrying stepwise truncations or amino acid (aa) exchanges in their cytoplasmic tails were screened for their ability to form MV-HIV pseudotypes. The combinations Hcd18/Fcd30, Hcd19/Fcd30 and Hcd24+4A/Fcd30 led to most efficient pseudotype formation with titers above 10exp6 transducing units /ml, using concentrated particles. The F cytoplasmic tail was truncated by 30 aa and the H cytoplasmic tail was truncated by 18, 19 or 24 residues with four added alanines after the start methionine in the latter case. Western blot analysis indicated that particle incorporation of the MV glycoproteins was enhanced upon truncation of their cytoplasmic tails. With the MV-HIV vectors high titers on different cell lines expressing one or both MV receptors were obtained, whereas MV receptor-negative cells remained untransduced. Titers were enhanced using an optimal H to F plasmid ratio (1:7) during vector particle production. Based on the described pseudotyping with the MV glycoprotein variants, HIV vectors retargeted to the epidermal growth factor receptor (EGFR) or the B cell surface marker CD20 were generated. For the production of the retargeted vectors MVaEGFR-HIV and MVaCD20-HIV, Fcd30 together with a native receptor blind Hcd18 protein, displaying at its ectodomain either the ligand EGF or a scAb directed against CD20 were used. With these vectors, gene transfer into target receptor-positive cells was several orders of magnitude more efficient than into control cells. The almost complete absence of background transduction of non-target cells was e.g. demonstrated in mixed cell populations, where the CD20-targeting vector selectively eliminated CD20-positive cells upon suicide gene transfer. Remarkably, transduction of activated primary human CD20-positive B cells was much more efficient with the MVaCD20-HIV vector than with the standard pseudotype vector VSV-G-HIV. Even more surprisingly, MVaCD20-HIV vectors were able to transduce quiescent primary human B cells, which until then had been resistant towards lentiviral gene transfer. The most critical step during the production of MV-HIV pseudotypes was the identification of H cytoplasmic tail mutants that allowed pseudotyping while retaining the fusion helper function. In contrast to previously inefficient targeting strategies, the reason for the success of this novel targeting system must be based on the separation of the receptor recognition and fusion functions onto two different proteins. Furthermore, with the CD20-targeting vector transduction of quiescent B cells was demonstrated for the first time. Own data and literature data suggest that CD20 binding and hyper-cross-linking by the vector particles results in calcium influx and thus activation of quiescent B cells. Alternatively this feature may be based on a residual binding activity of the MV glycoproteins to the native MV receptors that is insufficient for entry but induces cytoskeleton rearrangements dissolving the post-entry block of HIV vectors. Hence, in this thesis efficient retargeting of lentiviral vectors and transduction of quiescent cells was combined. This novel targeting strategy should be easily adaptable to many other target molecules by extending the modified MV H protein with appropriate specific domains or scAbs. It should now be possible to tailor lentiviral vectors for highly selective gene transfer into any desired target cell population with an unprecedented degree of efficiency.
Neutron stars are very dense objects. One teaspoon of their material would have a mass of five billion tons. Their gravitational force is so strong that if an object were to fall from just one meter high it would hit the surface of the respective neutron star at two thousand kilometers per second. In such dense bodies, different particles from the ones present in atomic nuclei, the nucleons, can exist. These particles can be hyperons, that contain non-zero strangeness, or broader resonances. There can also be different states of matter inside neutron stars, such as meson condensates and if the density is height enough to deconfine the nucleons, quark matter. As new degrees of freedom appear in the system, different aspects of matter have to be taken into account. The most important of them being the restoration of the chiral symmetry. This symmetry is spontaneously broken, which is a fact related to the presence of a condensate of scalar quark-antiquark pairs, that for this reason is called chiral condensate. This condensate is present at low densities and even in vacuum. It is important to remember at this point that the modern concept of vacuum is far away from emptiness. It is full of virtual particles that are constantly created and annihilated, being their existence allowed by the uncertainty principle. At very high temperature/density, when the composite particles are dissolved into constituents, the chiral consensate vanishes and the chiral symmetry is restored. To explain how and when chiral symmetry is restored in neutron stars we use a model called non-linear sigma model. This is an effective quantum relativistic model that was developed in order to describe systems of hadrons interacting via meson exchange. The model was constructed from symmetry relations, which allow it to be chiral invariant. The first consequence of this invariance is that there are no bare mass terms in the lagrangian density, causing all, or most of the particles masses to come from the interactions with the medium. There are still other interesting features in neutron stars that cannot be found anywhere else in nature. One of them is the high isospin asymmetry. In a normal nucleus, the amount of protons and neutrons is more or less the same. In a neutron star the amount of neutrons is much higher than the protons. The resulting extra energy (called Fermi energy) increases the energy of the system, allowing the star to support more mass against gravitational collapse. As a consequence of that in early stages of the neutron star evolution, when there are still many trapped neutrinos, the proton fraction is higher than in later stages and consequently the maximum mass that the star can support against gravity is smaller. This, between many other features, shows how the microscopic phenomena of the star can reflect into the macroscopic properties. Another important property of neutron stars is charge neutrality. It is a required assumption for stability in neutron stars, but there are others. One example is chemical equilibrium. It means that the number of particles from each kind is not conserved, but they are created and annihilated through specific reactions that happen at the same rate in both directions. Although to calculate microscopic physics of neutron stars the space-time of special relativity, the Minkowski space, can be used, this is not true for the global properties of the star. In this case general relativity has to be used. The solution of Einstein's equations simplified to static, spherical and isotropic stars correspond to the configurations in which the star is in hydrostatic equilibrium. That means that the internal pressure, coming mainly from the Fermi energy of the neutrons, balances the gravity avoiding the collapse. When rotation is included the star becomes more stable, and consequently, can be more massive. The movement also makes it non-spherical, what requires the metric of the star to also be a function of the polar coordinate. Another important feature that has to be taken into account is the dragging of the local inertial frame. It generates centrifugal forces that are not originated in interactions with other bodies, but from the non-rotation of the frame of reference within which observations are made. These modifications are introduced through the Hartle's approximation that solves the problem by applying perturbation theory. In the mean field approximation, the couplings as well as the parameters of the non-linear sigma model are calibrated to reproduce massive neutron stars. The introduction of new degrees of freedom decreases the maximum mass allowed for the neutron star, as they soften the equation of state. In practice, the only baryons present in the star besides the nucleons are the Lambda and Sigma-, in the case in which the baryon octet is included, and Lambda and Delta-,0,+,++, in the case in which the baryon decuplet is included. The leptons are included to ensure charge neutrality. We choose to proceed our calculations including the baryon octet but not the decuplet, in order to avoid uncertainties in the couplings. The couplings of the hyperons were fitted to the depth of their potentials in nuclei. In this case the chiral symmetry restoration can be observed through the behavior of the related order parameter. The symmetry begins to be restored inside neutron stars and the transition is a smooth crossover. Different stages of the neutron star cooling are reproduced taking into account trapped neutrinos, finite temperature and entropy. Finite-temperature calculations include the heat bath of hadronic quasiparticles within the grand canonical potential of the system. Different schemes are considered, with constant temperature, metric dependent temperature and constant entropy. The neutrino chemical potential is introduced by fixing the lepton number in the system, that also controls the amount of electrons and protons (for charge neutrality). The balance between these two features is delicate and influenced mainly by the baryon number conservation. Isolated stars have a fixed number of baryons, which creates a link between different stages of the cooling. The maximum masses allowed in each stage of the cooling process, the one with high entropy and trapped neutrinos, the deleptonized one with high entropy, and the cold one in beta equilibrium. The cooling process is also influenced by constraints related to the rotation of the star. When rotation is included the star becomes more stable, and consequently, can be more massive. The movement also deforms it, requiring the metric of the star to include modifications that are introduced through the use of perturbation theory. The analysis of the first stages of the neutron star, when it is called proto-neutron star, gives certain constraints on the possible rotation frequencies in the colder stages. Instability windows are calculated in which the star can be stable during certain stages but collapses into black holes during the cooling process. In the last part of the work the hadronic SU(3) model is extended to include quark degrees of freedom. A new effective potential to the order parameter for deconfinement, the Polyakov loop, makes the connection between the physics at low chemical potential and hight temperature of the QCD phase diagram with the height chemical potential and low temperature part. This is done through the introduction of a chemical potential dependency on the already temperature dependent potential. Analyzing the effect of both order parameters, the chiral condensate and the Polyakov loop, we can drawn a phase diagram for symmetric as well as for star matter. The diagram contains a crossover region as well as a first order phase transition line. The new couplings and parameters of the model are chosen mainly to fit lattice QCD, including the position of the critical point. Finally, this matter containing different degrees of freedom (depending on which phase of the diagram we are) is used to calculate hybrid star properties.
Shape complementarity is a compulsory condition for molecular recognition. In our 3D ligand-based virtual screening approach called SQUIRREL, we combine shape-based rigid body alignment with fuzzy pharmacophore scoring. Retrospective validation studies demonstrate the superiority of methods which combine both shape and pharmacophore information on the family of peroxisome proliferator-activated receptors (PPARs). We demonstrate the real-life applicability of SQUIRREL by a prospective virtual screening study, where a potent PPARalpha agonist with an EC50 of 44 nM and 100-fold selectivity against PPARgamma has been identified...
Für Bibliotheken gehört der Umgang mit elektronischen Ressourcen zu den größten Herausforderungen des 21. Jahrhunderts. Die Sammlung, Erschließung und dauerhafte Aufbewahrung elektronischer Ressourcen erweitert das Aufgabenfeld von Bibliotheken heutzutage enorm. Auch mit dem Aufbau von Langzeitspeichern müssen Bibliotheken sich auseinandersetzen.
Die Herausforderung der digitalen Langzeitarchivierung betrifft alle Gedächtnisorganisationen - Bibliotheken, Archive, Museen - und kann effektiv und bezahlbar nur kooperativ bewältigt werden. Aus diesem Gedanken heraus wurde 2003 in Deutschland das Kompetenznetzwerk für digitale Langzeitarchivierung „nestor“ mit den Arbeitsschwerpunkten Qualifizierung, Standardisierung, Vernetzung gegründet.
Die Überlieferung des kulturellen Erbes, traditionell eine der Aufgaben von Bibliotheken, Archiven und Museen, ist durch die Einführung digitaler Medien und innovativer Informationstechnologien deutlich anspruchsvoller geworden. In der heutigen Zeit werden zunehmend mehr Informationen (nur) digital erstellt und veröffentlicht. Diese digitalen Informationen, die Güter des Informations- und Wissenszeitalters, sind einerseits wertvolle kulturelle und wissenschaftliche Ressourcen, andererseits sind sie z.B. durch die Kurzlebigkeit vieler Formate sehr vergänglich. Die Datenträger sind ebenso der Alterung unterworfen wie die Datenformate oder die zur Darstellung notwendige Hard- und Software. Um langfristig die Nutzbarkeit der digitalen Güter sicherzustellen, muss schon frühzeitig Vorsorge getroffen werden. Es müssen Strategien zur digitalen Langzeitarchivierung entwickelt und umgesetzt werden. ...
Background The to date evidence for a dose-response relationship between physical workload and the development of lumbar disc diseases is limited. We therefore investigated the possible etiologic relevance of cumulative occupational lumbar load to lumbar disc diseases in a multi-center case-control study. Methods In four study regions in Germany (Frankfurt/Main, Freiburg, Halle/Saale, Regensburg), patients seeking medical care for pain associated with clinically and radiologically verified lumbar disc herniation (286 males, 278 females) or symptomatic lumbar disc narrowing (145 males, 206 females) were prospectively recruited. Population control subjects (453 males and 448 females) were drawn from the regional population registers. Cases and control subjects were between 25 and 70 years of age. In a structured personal interview, a complete occupational history was elicited to identify subjects with certain minimum workloads. On the basis of job task-specific supplementary surveys performed by technical experts, the situational lumbar load represented by the compressive force at the lumbosacral disc was determined via biomechanical model calculations for any working situation with object handling and load-intensive postures during the total working life. For this analysis, all manual handling of objects of about 5 kilograms or more and postures with trunk inclination of 20 degrees or more are included in the calculation of cumulative lumbar load. Confounder selection was based on biologic plausibility and on the change-in-estimate criterion. Odds ratios (OR) and 95% confidence intervals (CI) were calculated separately for men and women using unconditional logistic regression analysis, adjusted for age, region, and unemployment as major life event (in males) or psychosocial strain at work (in females), respectively. To further elucidate the contribution of past physical workload to the development of lumbar disc diseases, we performed lag-time analyses. Results We found a positive dose-response relationship between cumulative occupational lumbar load and lumbar disc herniation as well as lumbar disc narrowing among men and women. Even past lumbar load seems to contribute to the risk of lumbar disc disease. Conclusions According to our study, cumulative physical workload is related to lumbar disc diseases among men and women.
Background Since June 2002, revised regulations in Germany have required "Emergency Medical Care" as an interdisciplinary subject, and state that emergency treatment should be of increasing importance within the curriculum. A survey of the current status of undergraduate medical education in emergency medical care establishes the basis for further committee work. Methods Using a standardized questionnaire, all medical faculties in Germany were asked to answer questions concerning the structure of their curriculum, representation of disciplines, instructors' qualifications, teaching and assessment methods, as well as evaluation procedures. Results Data from 35 of the 38 medical schools in Germany were analysed. In 32 of 35 medical faculties, the local Department of Anaesthesiology is responsible for the teaching of emergency medical care; in two faculties, emergency medicine is taught mainly by the Department of Surgery and in another by Internal Medicine. Lectures, seminars and practical training units are scheduled in varying composition at 97% of the locations. Simulation technology is integrated at 60% (n=21); problem-based learning at 29% (n=10), e-learning at 3% (n=1), and internship in ambulance service is mandatory at 11% (n=4). In terms of assessment methods, multiple-choice exams (15 to 70 questions) are favoured (89%, n=31), partially supplemented by open questions (31%, n=11). Some faculties also perform single practical tests (43%, n=15), objective structured clinical examination (OSCE; 29%, n=10) or oral examinations (17%, n=6). Conclusion Emergency Medical Care in undergraduate medical education in Germany has a practical orientation, but is very inconsistently structured. The innovative options of simulation technology or state-of-the-art assessment methods are not consistently utilized. Therefore, an exchange of experiences and concepts between faculties and disciplines should be promoted to guarantee a standard level of education in emergency medical care.
Das libor Markt Modell (LMM) ist seit seiner Entwicklung in den Veröffentlichungen von Brace, Gatarek, Musiela (1997), einerseits, und unabhängig von diesen von Miltersen, Sandmann, Sondermann (1997), andererseits, zu dem anerkanntesten Instrument zur Modellierung der Zinsstruktur und der damit verbundenen Preisfindung für relevante Finanzderivate geworden. libor steht dabei für London Inter-Bank Offered Rate, ein täglich in London fixierter Referenz-Zins für kurzfristige Anlagen. Drei- oder sechsmonatige Laufzeiten sind in Verbindung mit dem LMM üblich. Die Forschung zur Verbesserung dieses Modells hat in den letzten Jahren an Zuwachs gewonnen. Beim Versuch den Fehler der Anpassung an die täglich beobachteten Preise von Zinsoptionen wie Caps und Swaptions zu verringern, erhält man in der Folge auch genauere Bewertungen für andere, exotischere, Derivate. Die zugrunde liegende und zentrale Idee des LMM besteht darin, die Forward (Termin) Zinsen direkt als primären (Vektor) Prozess mehrerer libor Sätze zu betrachten und diese simultan zu modellieren, anstatt sie nur herzuleiten aus einem übergeordneten, unendlich dimensionalen Forward Zinsprozess, wie im zeitlich früher entwickelten Heath-Jarrow-Morton Modell. Das überzeugendste Argument für diese Diskretisierung ist, dass die libor Sätze direkt im Markt beobachtbar sind und ihre Volatilitäten auf eine natürliche Weise in Beziehung gebracht werden können zu bereits liquide gehandelten Produkten, eben jenen Caps und Swaptions. Dennoch beinhaltet das Modell eine gravierende Insuffizienz, indem es keine Krümmung der Volatilitätsoberfläche, im Hinblick auf Optionen mit verschiedenen Basiszinsen, abbildet. Wie im einfachen eindimensionalen Black-Scholes Modell prägen sich auch hier die Ungenauigkeiten der Verteilung in fehlenden heavy tails deutlich aus. Smile und Skew Effekte sind erkennbar. Im klassischen liborMarkt Modell wird in Richtung der Basiszinsdimension nur eine affine Struktur erzeugt, welche bestenfalls als Approximation für die erwünschte Oberfläche dienen kann. Die beobachteten Verzerrungen führen naturgemäss zu einer ungenauen Abbildung der Realität und fehlerhaften Reproduktion der Preise in Regionen, die ein wenig entfernt vom Bereich am Geld liegen. Derartig ungewollte Dissonanzen in Gewinn und Verlustzahlen führten z.B. in 1998 zu gravierenden Verlusten im Zinsderivateportfolio der heutigen Royal Bank of Scotland. ...
The NADH:ubiquinone oxidoreductase (complex I) is a large membrane bound protein complex coupling the redox reaction of NADH oxidation and quinone reduction to vectorial proton translocation across bioenergetic membranes. The mechanism of proton pumping is still unknown; it seems however that the reduction of quinone induces conformational changes which drive proton uptake from one side and release at the other side of the membrane. In this study the proposed quinone and inhibitor binding pocket located at the interface of the 49-kDa and PSST subunits was explored by a large number of point mutations introduced into complex I from the strictly aerobic yeast Yarrowia lipolytica. Point mutations were systematically chosen based on the crystal structure of the hydrophilic domain of complex I from Thermus thermophilus. In total, the properties of 94 mutants at 39 positions which completely cover the lining of the large putative quinone and inhibitor binding cavity are described and discussed here. A structure/function analysis allowed the identification of functional domains within the large putative quinone binding cavity. A possible quinone access path ranging from the N-terminal beta-sheet of the 49-kDa subunit into the pocket to tyrosine 144 could be defined, since all exchanges introduced here, caused an almost complete loss of complex I activity. A region located deeper in the proposed quinone binding pocket is apparently not important for complex I activity. In contrast, all exchanges of tyrosine 144, even the very conservative mutant Y144F, essentially abolished dNADH:DBQ oxidoreductase activity of complex I. However, with higher concentrations of Q1 or Q2 the dNADH:Q oxidoreductase activity was largely restored in the mutants with the more conservative exchanges. Proton pumping experiments showed that this activity was also coupled to proton translocation, indicating that these quinones were reduced at the physiological site. However, the apparent Km values for Q1 or Q2 were drastically increased, clearly demonstrating that tyrosine 144 is central for quinone binding and reduction. These results further prove that the enzymatically relevant quinone binding site of complex I is located at the interface of the 49-kDa and PSST subunits. The quinone binding pocket is thought to comprise the binding sites for a plethora of specific complex I inhibitors that are usually grouped into three classes. The large array of mutants targeting the quinone binding cavity was examined with a representative of each inhibitor class. Many mutants conferring resistance were identified which, depending on the inhibitor tested, clustered in well defined and partially overlapping regions of the large putative quinone and inhibitor binding cavity. Mutants with effects on type A (DQA) and type B (rotenone) inhibitors were found in a subdomain corresponding to the former [NiFe] site in homologous hydrogenases, whereby the type A inhibitor DQA seems to bind deeper in this domain. Mutants with effects on the type C inhibitor (C12E8) were found in a narrow crevice. Exchanging more exposed residues at the border of these well defined domains affected all three inhibitor types. Therefore, the results as a whole provide further support for the concept that different inhibitor classes bind to different but partially overlapping binding sites within a single large quinone binding pocket. In addition, they also indicate the approximate location of the binding sites within the structure of the large quinone and inhibitor binding cavity at the interface of the 49 kDa and the PSST subunit. It has been proposed earlier that the highly conserved HRGXE-motif in the 49-kDa subunit forms a part of the quinone binding site of complex I. Mutagenesis of the HRGXE-motif, revealed that these residues are rather critical for complex I assembly and seem to have an important structural role. The question why iron-sulfur cluster N1a is not detectable by EPR in many models organisms is not solved yet. Introducing polar and positively charged amino acid residues close to this cluster in order to increase its midpoint potential did not result in the appearance of the cluster N1a EPR signal in mitochondrial membranes from the mutants. Clearly, further research will be necessary to gain insights to the function of this iron-sulfur cluster in complex I. In an additional project, a new and simple in vivo screen for complex I deficiency in Y. lipolytica was developed and optimized. This assay probes for defects in complex I assembly and stability, oxidoreductase activity and also proton pumping activity by complex I. Most importantly, this assay is applicable to all Y. lipolytica strains and could be used to identify loss-of-function mutants, gain-of-functions mutants (i.e. resistance towards complex I inhibitors) and revertants due to mutations in both nuclear and mitochondrially encoded genes of complex I subunits.
The light-harvesting complex of photosystem II (LHC-II) is the major antenna complex in plant photosynthesis. It accounts for roughly 30% of the total protein in plant chloroplasts, which makes it arguably the most abundant membrane protein on Earth, and binds about half of plant chlorophyll (Chl). The complex assembles as a trimer in the thylakoid membrane and binds a total of 54 pigment molecules, including 24 Chl a, 18 Chl b, 6 lutein (Lut), 3 neoxanthin (Neo) and 3 violaxanthin (Vio). LHC-II has five key roles in plant photosynthesis. It: (1) harvests sunlight and transmits excitation energy to the reaction centres of photosystems II and I, (2) regulates the amount of excitation energy reaching each of the two photosystems, (3) has a structural role in the architecture of the photosynthetic supercomplexes, (4) contributes to the tight appression of thylakoid membranes in chloroplast grana, and (5) protects the photosynthetic apparatus from photo damage by non photochemical quenching (NPQ). A major fraction of NPQ is accounted for its energy-dependent component qE. Despite being critical for plant survival and having been studied for decades, the exact details of how excess absorbed light energy is dissipated under qE conditions remain enigmatic. Today it is accepted that qE is regulated by the magnitude of the pH gradient (ΔpH) across the thylakoid membrane. It is also well documented that the drop in pH in the thylakoid lumen during high-light conditions activates the enzyme violaxanthin de-epoxidase (VDE), which converts the carotenoid Vio into zeaxanthin (Zea) as part of the xanthophyll cycle. Additionally, studies with Arabidopsis mutants revealed that the photosystem II subunit PsbS is necessary for qE. How these physiological responses switch LHC-II from the active, energy transmitting to the quenched, energy-dissipating state, in which the solar energy is not transmitted to the photosystems but instead dissipated as heat, remains unclear and is the subject of this thesis. From the results obtained during this doctoral work, five main conclusions can be drawn concerning the mechanism of qE: 1. Substitution of Vio by Zea in LHC-II is not sufficient for efficient dissipation of excess excitation energy. 2. Aggregation quenching of LHC-II does not require Vio, Neo nor a specific Chl pair. 3. With one exception, the pigment structure in LHC-II is rigid. 4. The two X-ray structures of LHC-II show the same energy transmitting state of the complex. 5. Crystalline LHC-II resembles the complex in the thylakoid membrane. Models of the aggregation quenching mechanism in vitro and the qE mechanism in vivo are presented as a corollary of this doctoral work. LHC-II aggregation quenching in vitro is attributed to the formation of energy sinks on the periphery of LHC-II through random interaction with other trimers, free pigments or impurities. A similar but unrelated process is proposed to occur in the thylakoid membrane, by which excess excitation energy is dissipated upon specific interaction between LHC-II and a PsbS monomer carrying Zea. At the end of this thesis, an innovative experimental model for the analysis of all key aspects of qE is proposed in order to finally solve the qE enigma, one of the last unresolved problems in photosynthesis research.
Samples of freshly fallen snow were collected at the high alpine research station Jungfraujoch (Switzerland) in February and March 2006 and 2007, during the Cloud and Aerosol Characterization Experiments (CLACE) 5 and 6. In this study a new technique has been developed and demonstrated for the measurement of organic acids in fresh snow. The melted snow samples were subjected to solid phase extraction and resulting solutions analysed for organic acids by HPLC-MS-TOF using negative electrospray ionization. A series of linear dicarboxylic acids from C5 to C13 and phthalic acid, were identified and quantified. In several samples the biogenic acid pinonic acid was also observed. In fresh snow the median concentration of the most abundant acid, adipic acid, was 0.69 micro g L -1 in 2006 and 0.70 micro g L -1 in 2007. Glutaric acid was the second most abundant dicarboxylic acid found with median values of 0.46 micro g L -1 in 2006 and 0.61 micro g L -1 in 2007, while the aromatic acid phthalic acid showed a median concentration of 0.34 micro g L -1 in 2006 and 0.45 micro g L -1 in 2007. The concentrations in the samples from various snowfall events varied significantly, and were found to be dependent on the back trajectory of the air mass arriving at Jungfraujoch. Air masses of marine origin showed the lowest concentrations of acids whereas the highest concentrations were measured when the air mass was strongly influenced by boundary layer air.
Current atmospheric models do not include secondary organic aerosol (SOA) production from gas-phase reactions of polycyclic aromatic hydrocarbons (PAHs). Recent studies have shown that primary semivolatile emissions, previously assumed to be inert, undergo oxidation in the gas phase, leading to SOA formation. This opens the possibility that low-volatility gas-phase precursors are a potentially large source of SOA. In this work, SOA formation from gas-phase photooxidation of naphthalene, 1-methylnaphthalene (1-MN), 2-methylnaphthalene (2-MN), and 1,2-dimethylnaphthalene (1,2-DMN) is studied in the Caltech dual 28-m3 chambers. Under high-NOx conditions and aerosol mass loadings between 10 and 40 microg m-3, the SOA yields (mass of SOA per mass of hydrocarbon reacted) ranged from 0.19 to 0.30 for naphthalene, 0.19 to 0.39 for 1-MN, 0.26 to 0.45 for 2-MN, and constant at 0.31 for 1,2-DMN. Under low-NOx conditions, the SOA yields were measured to be 0.73, 0.68, and 0.58, for naphthalene, 1-MN, and 2-MN, respectively. The SOA was observed to be semivolatile under high-NOx conditions and essentially nonvolatile under low-NOx conditions, owing to the higher fraction of ring-retaining products formed under low-NOx conditions. When applying these measured yields to estimate SOA formation from primary emissions of diesel engines and wood burning, PAHs are estimated to yield 3–5 times more SOA than light aromatic compounds. PAHs can also account for up to 54% of the total SOA from oxidation of diesel emissions, representing a potentially large source of urban SOA.