Refine
Year of publication
- 2004 (1719) (remove)
Document Type
- Article (665)
- Doctoral Thesis (270)
- Part of a Book (153)
- Part of Periodical (133)
- Working Paper (114)
- Review (111)
- Book (60)
- Preprint (55)
- Conference Proceeding (48)
- Report (47)
Language
- German (1205)
- English (471)
- French (16)
- Portuguese (9)
- Spanish (6)
- mis (4)
- Multiple languages (3)
- Italian (2)
- Turkish (2)
Has Fulltext
- yes (1719) (remove)
Keywords
- Johann Wolfgang von Goethe (38)
- Deutsch (34)
- Frankfurt <Main> / Universität (29)
- Deutschland (27)
- Syntax (27)
- Rezension (24)
- Generative Transformationsgrammatik (23)
- Anton Ulrich <Braunschweig-Wolfenbüttel (19)
- Herzog> / Octavia (19)
- Wortstellung (19)
Institute
- Medizin (142)
- Physik (106)
- Extern (91)
- Biochemie und Chemie (69)
- Wirtschaftswissenschaften (57)
- Rechtswissenschaft (50)
- Biowissenschaften (37)
- Erziehungswissenschaften (31)
- Universitätsbibliothek (31)
- Center for Financial Studies (CFS) (30)
In der vorliegenden Arbeit wurden Sekundärmetabolite aus marinen Wirbellosen der Nordsee, arktischen und antarktischen Gewässern untersucht. Ausgehend von Untersuchungen zur marinen chemischen Ökologie von Haliclona viscosa und physiologischen Effekten auf die Kieme der Krabbe Carcinus maenas wurden verschiedene Alkaloide und Cholesterole isoliert (siehe Abbildung 25). Vier unbekannte Alkaloide konnten erstmalig aus Haliclona viscosa isoliert werden. Sie leiten sich von 3-Alkylpyridin-Alkaloiden ab, die für Schwämme der Gattung Haliclona charakteristisch sind. Die Strukturaufklärung erfolgte durch den Einsatz von NMRSpektroskopie und Massenspektrometrie. Die symmetrischen bzw. pseudo-symmetrischen Eigenschaften erschwerten im besonderen Maße die Strukturaufklärung. Die Isolation von Haliclamin C und D sowie Viscosalin ermöglichte es, daß für sie ökologische Funktionen nachgewiesen werden konnten [33, 34], die dem Schwamm Haliclona viscosa in seinem Habitat Vorteile im Kampf um das Überleben bringen. Viscosamin ist das erste natürlich vorkommende zyklische Trimer eines 3-Alkylpyridin-Alkaloids, daß aus einer marinen Umgebung stammt. Es schließt eine Lücke zwischen monomeren, dimeren und polymeren 3-Alkylpyridin-Alkaloiden. Aus dem bisher noch nicht chemisch untersuchten Borstenwurm Laetmonice producta, konnte Homarin isoliert werden [81-84]. Homarin zeigte einen bisher unbekannten physiologischen Effekt auf die Kieme eines potentiellen Räubers [35]. Ob Homarin aufgrund seiner physiologischen Wirkung den Borstenwurm vor z.B. räuberischen Krebstieren schützen kann, muß noch mit weiteren Versuchen geklärt werden. Enthält 3 Art. aus versch. Zeitschr.: 1 Christian A. Volk and Matthias Köck: Viscosamine: The First Naturally Occuring Trimeric 3-Alkyl Pyridinium Alkaloid ; 2 Christian A. Volk, Heike Lippert, Ellen Lichte, and Matthias Köck: Two New Haliclamines from the Arctic Sponge Haliclona viscosa, European Journal of Organic Chemistry 2004, im Druck ; 3 Christian A. Volk and Matthias Köck: Viscosaline: New 3-Alkyl Pyridinium Alkaloid from the Artic Sponge Haliclona viscosa, Organic & Biomolecular Chemistry 2004, im Druck
We study the phase diagram of dense, locally neutral three-flavor quark matter as a function of the strange quark mass, the quark chemical potential, and the temperature, employing a general nine-parameter ansatz for the gap matrix. At zero temperature and small values of the strange quark mass, the ground state of matter corresponds to the color-flavor-locked (CFL) phase. At some critical value of the strange quark mass, this is replaced by the recently proposed gapless CFL (gCFL) phase. We also find several other phases, for instance, a metallic CFL (mCFL) phase, a so-called uSC phase where all colors of up quarks are paired, as well as the standard two-flavor color-superconducting (2SC) phase and the gapless 2SC (g2SC) phase.
We discuss gapless colour superconductivity for neutral quark matter in β equilibrium at zero as well as at nonzero temperature. Basic properties of gapless superconductors are reviewed. The current progress and the remaining problems in the understanding of the phase diagram of strange quark matter are discussed.
E-Learning Strategien als Spannungsfeld für Hochschulentwicklung, Kompetenzansätze und Anreizsysteme
(2004)
Dieser Beitrag gibt einen Einstieg in das Thema E-Learning Strategien und zugleich einen Überblick über die Themen, die in den Beiträgen in diesem Band versammelt sind. Anhand der ausführlichen Darstellung der Aspekte, die bei der Strategieentwicklung für den Medieneinsatz zu beachten sind, wird deutlich, in welcher Reihenfolge die hier vorgestellten Beispiele aus Hochschulen zu einem besseren Verständnis für die konzeptionelle und infrastrukturellen Überlegungen im Rahmen einer E-Learning-Gesamtstrategie beitragen. Neben der Einrichtung von Multimedia-Kompetenzzentren und anderen Serviceeinrichtungen sind dies Qualifizierungsangebote, Projektförderungen und begleitende Evaluations- und Beratungsansätze. Der einleitende Beitrag macht zudem deutlich, welche Schritte zur Entwicklung einer solchen Konzeption vorzunehmen, welche Hürden und Aspekte zu beachten sind, um zu einem erfolgreichen, nachhaltigen und geeigneten Medieneinsatz in der Lehre der eigenen Hochschullandschaft zu gelangen und wie Akteure und Zentren frühzeitig in einen solchen Prozess einzubinden sind.
Das Prostate-apoptosis-response-gene-4 (Par-4) sensibilisiert neoplastische Lymphozy-ten, deren Malignität durch eine Hemmung der Apoptosefähigkeit gekennnzeichnet ist, für apoptotische Stimuli. Vorhergehende Studien konnten zeigen, daß eine Überexpres-sion von Par-4 bei der Apoptoseinduktion durch Chemotherapeutika zu einer Downregulation von Bcl-2, einer Aktivierung von Caspase-3, einem verstärkten Abfall des Mi-tochondrialen Membranpotentials (MMP), sowie einer verstärkten PARP-Spaltung und dadurch zum programmierten Zelltod führt. Im Rahmen dieser Arbeit konnten weitere molekulare Mechanismen aufgezeigt werden, über die die apoptosesensibilisierende Wirkung von Par-4 vermittelt wird. Es konnte gezeigt werden, daß bei Behandlung mit Doxorubicin die Par 4 Überexpression außer zur stärkeren Aktivierung von Caspase-3 auch zur stärkeren Aktivierung von Caspase-8 und -9 führt. Außerdem kann eine Caspase 3 Inhibition bei Par-4 Überexpression durch eine alternative Aktivierung der Caspasen-6,-7,-8 und -9 umgangen werden. Dieses veränderte Caspasenaktivitätsmuster läßt sich mit einer Downregulation von Mitgliedern der Inhibitors of Apoptosis Proteins (IAPs) erklären. So konnte gezeigt werden, daß es bei Apoptoseinduktion unter Überexpression von Par-4 zur Downregulation von XIAP, cIAP1 und Survivin kommt. Diese Downregulation bleibt auch unter Caspase-3 Inhibition, sowie von XIAP und Survivin sogar unter allgemeiner Caspaseninhibition bestehen, das heißt sie ist nicht Caspase-3-, bzw. überhaupt nicht Caspasen-vermittelt. Weiterhin konnte gezeigt werden, daß es bei Überexpression von Par-4 unter Apoptoseinduktion mit Doxorubicin außer zum Abfall des MMPs auch zur verstärkten Ausschüttung von Cytochrom c und des Apoptosis In-ducing Factors (AIF) ins Cytosol kommt. Cytochrom c führt im Cytosol unter Bildung des Apoptosoms zur Aktivierung von Caspase-9, einem weiteren Mechanismus, der zur verstärkten Caspasenaktivität unter Par-4 Überexpression beiträgt. Die vermehrte Ausschüttung von Cytochrom c ist bedingt durch eine Translokation von tBid an die Mito-chondrienmembran. So ergaben die Untersuchungen, daß eine Par 4 Überexpression in neoplastischen T-Lymphozyten bei Behandlung mit Doxorubicin zur stärkeren Spaltung von Bid, einem Mitglied der proapoptotischen Bcl-2 Familie, sowie zur stärkeren Translokation des Bid Spaltproduktes (tBid) an die Mitochondrienmembran führt. Mit Hilfe der Immunfluoreszens konnte dargestellt werden, daß Bid in Par-4 überexprimierenden Zellen ein verändertes Verteilungsmuster im Cytosol aufweist und auf einen apoptotischen Reiz hin, verglichen mit den Par-4-negativen Zellen, vermehrt an die Mitochondrienmembran transloziert wird. Weiterhin konnte gezeigt werden, daß Bak und Bad, zwei weitere proapoptotische Mitgliederr der Bcl-2 Familie, durch Par 4 Überexpression Caspasen unabhängig verstärkt aktiviert werden. Bak wird durch das Bid-Spaltprodukt tBid aktiviert und führt ebenfalls zu einer verstärkten Cytochrom c Freisetzung ins Cytosol, wohingegen Bad seine proapoptotische Wirkung durch Bindung an antiapoptotische Mitglieder der Bcl-2 Familie entfaltet. Darüber hinaus konnte demonstriert werden, daß die Par-4 Überexpression in neoplastischen Lymphozyten bei Behandlung mit Doxorubicin zu einer Downregulation von Ras, welches zu den GTPasen zählt, führt. Diese Downregulation ist Caspasen-, jedoch nicht Caspase-3-abhängig. Hierbei besteht kein Zusammenhang zwischen der Expression von Ras und dem Tumorsupressorgen P53. Das heißt Par-4 entfaltet seine proapoptotische Wirkung über einen P53-unabhängigen Weg. Weiterhin konnte im Rahmen dieser Arbeit gezeigt werden, daß Par 4 Überexpression in neoplastischen Lymphozyten zu einer verstärkten Sensibilität des Fas-Rezeptors führt, das heißt, es konnte bewiesen werden, daß der pro-apoptotische Effekt von Par 4 sowohl durch Chemotherapeutika, als auch über direkte Rezeptorstimulation ausgelöst werden kann. Insgesamt legt diese Arbeit die wesentlichen molekularen Mechanismen der pro-apoptotischen Wirkung von Par-4 in neoplastischen Lymphozyten dar.
During the past decade, processes associated with what is popularly though perhaps misleadingly known as globalization have come within the purview of anthropology. Migration and mobility ‐ and the footloose or even rootless social groups that they produce ‐ as well as the worldwide diffusion of commodities, media images, political ideas and practices, technologies and scientific knowledge today are on anthropology's research agenda. As a consequence, received notions about the ways in which culture relates to territory have been abandoned. The term transnationalisation captures cultural processes that stream across the borders of nation states. Anthropologists have been forced to revise the notion that transnationalisation would inevitably bring about a culturally homogenized world. Instead, we are witnessing a surge of greatly increasing cultural diversity. New cultural forms grow out of historically situated articulations of the local and the global. Rather than left-over relics from traditional orders, these are decidedly modern, yet far from uniform. The essay engages the idea of the pluralization of modernities, explores its potential for interdisciplinary research agendas, and also inquires into problematic assumptions underlying this new theoretical concept.
As of today, estimating interest rate reaction functions for the Euro Area is hampered by the short time span since the conduct of a single monetary policy. In this paper we circumvent the common use of aggregated data before 1999 by estimating interest rate reaction functions based on a panel including actual EMU Member States. We find that exploiting the cross-section dimen- sion of a multi-country panel and accounting for cross-country heterogeneity in advance of the single monetary policy pays off with regard to the estimated reaction functions' ability to describe actual interest rate dynamics. We retrieve a panel reaction function which is demonstrated to be a valuable tool for evaluating episodes of monetary policy since 1999. JEL - Klassifikation: E43 , E58 , C33
This paper employs individual bidding data to analyze the empirical performance of the longer term refinancing operations (LTROs) of the European Central Bank (ECB). We investigate how banks’ bidding behavior is related to a series of exogenous variables such as collateral costs, interest rate expectations, market volatility and to individual bank characteristics like country of origin, size, and experience. Panel regressions reveal that a bank’s bidding depends on bank characteristics. Yet, different bidding behavior generally does not translate into differences concerning bidder success. In contrast to the ECB’s main refinancing operations, we find evidence for the winner’s curse effect in LTROs. Our results indicate that LTROs do neither lead to market distortions nor to unfair auction outcomes. JEL classification: E52, D44
Even though tourism has been recognised as an important field for transnational research today, there are few attempts to place tourism in the context of transnational theories or to think about transnationalism from the perspective of tourists. I argue that in researching tourist practices one can add important aspects to transnational approaches. The prerequisites of mobility and interaction for example are the features chosen by backpackers to describe what their Round-The-World-Trip is about. A form of tourism is adopted, or created, that itself confronts many aspects of globalisation: First of all there is the immense dynamic that is involved. Backpackers try to cover as many places and experiences as possible, travelling at high speed. They adopt all kinds of touristic experiences ranging from beach to adventure to culture tourism. They don't focus on a specific area or country but travel the world. They cross national borders perpetually. Additionally they form a transnational network in which they interact with strangers of similar backgrounds (other backpackers, tourist professionals). This network helps them interacting with people from different backgrounds (the socalled hosts or locals). Considering my research Backpackers forge a certain identity from these transnational practices which I want to name globedentity. Globedentity expresses a type of identity construction that not only refers to the individual (I) but reflects the world (globe) in this identity. This globedentity is not fixed but is perpetually re-created and re-defined. It also embraces the increasing popular awareness of globalisation which backpackers, coming from highly educated middle class backgrounds, in particular have identified with. Due to the constant awareness of the latest global social, cultural and economic developments in these educated milieus they know exactly which tools to use to become successful parts of their societies.
I analysed the importance of shell size, shell shape, habitat preferences and availability, experienced climate, active dispersal and influence of Pleistocene glaciations for the range sizes of 37 Western Palaearctic Helicidae s.l. species for which a phylogeny was available. In both cross-species and phylogenetically controlled analyses, the range sizes were positively correlated to climatic tolerance, shell size, active dispersal and influence of Pleistocene glaciations. In addition, range sizes increased significantly with latitude. Multiple regression suggested that, predominantly, the influence of Pleistocene glaciations, tolerance to large annual temperature ranges and shell size influenced the distributional range sizes. Habitat preference, range and availability, active dispersal and shell shape explained no additional variance. The results suggest that the processes influencing species range size of the Helicidae s.l. are mainly related to the climatic shifts after the Pleistocene.
In der vorliegenden Studie, an der 100 männliche Patienten mit manifester koronarer Herzerkrankung bzw. nach kardiochirurgischer Operation teilnahmen, wurden erstmalig randomisiert die kurz- und mittelfristigen Effekte einer ambulanten/teilstationären mit denen einer vollstationären kardialen Rehabilitation verglichen. Die körperliche Leistungsfähigkeit konnte nach kardialer Rehabilitation in beiden Gruppen signifikant gesteigert werden. Auch in der Nachbeobachtungsphase nach 6 Monaten und 12 Monaten war ein unverändert hohes Leistungsniveau nachweisbar. Zwischen den beiden Rehabilitationsformen konnten keine signifikanten Unterschiede erfasst werden. Auch auf die Verbesserung der Lipidparameter (Gesamt-Cholesterinwert, LDL-Cholesterinwert, HDL-Cholesterinwert) hatte die Rehabilitationsform keinen entscheidenden Einfluss. Während des gesamten Untersuchungszeitraumes wurden zwischen der ambulanten/teilstationären Gruppe und der vollstationären Gruppe keine signifikanten Unterschiede festgestellt. Der LDL-Cholesterinwert konnte in der vollstationären Gruppe signifikant und in der ambulanten/teilstationären Gruppe deutlich jedoch nicht signifikant nach kardialer Rehabilitation gesenkt werden, der Interventionserfolg konnte allerdings langfristig nicht stabilisiert werden. Im Gegensatz hierzu, konnte in der Nachbeobachtungsphase in beiden Gruppen ein signifikanter Anstieg des HDL-Serumcholesterinwertes beobachtet werden. Die Triglyceridwerte lagen zu Beginn und am Ende der Rehabilitation in der ambulanten / teilstationären Gruppe signifikant höher als in der vollstationären Gruppe. In der Nachbeobachtungsphase nach 6 Monaten und 12 Monaten wurden keine signifikanten Unterschiede im Vergleich beider Gruppen registriert. Bezüglich des Rauchverhaltens und der Gewichtsreduktion wurden ebenfalls zwischen den beiden Versorgungsformen keine signifikanten Unterschiede nachgewiesen. Beim Vergleich der Blutdruckwerte zeigten sich zunächst ebenfalls keine signifikanten Unterschiede. Lediglich die Gegenüberstellung der Blutdruckwerte zum Zeitpunkt der Entlassung zeigte in der ambulanten/ teilstationären Gruppe ein signifikant höheres Blutdruckniveau. Die berufliche Reintegrationsrate lag in der vorliegenden Studie im Vergleich zu den bisherigen Untersuchungen mit durchschnittlich 60 % relativ hoch, obwohl die Patienten beider Kollektive in der Regel schwere körperliche Arbeiten ausüben. Die Rehabilitationsform hatte auf die berufliche Reintegrationsrate keinen Einfluss, signifikante Unterschiede zwischen den beiden untersuchten Patientenkollektiven ließen sich nicht aufzeigen. Als zentrales Ergebnis der vorliegenden Studie zeigte sich somit, dass hinsichtlich der Ergebnisqualität zwischen den beiden Versorgungsformen keine eindeutigen Wirksamkeitsunterschiede nachgewiesen werden konnten. In beiden Rehabilitationsformen konnten bezüglich der Modifikation der Risikofaktoren, der Steigerung der körperlichen Leistungsfähigkeit sowie der beruflichen Reintegration die Effektivität der kardialen Rehabilitation belegt werden. Langfristig betrachtet können die erreichten Erfolge nur teilweise verstetigt werden. Ferner zeigte sich, dass nur wenige Patienten die ambulante/teilstationäre Rehabilitation präferierten. Bei gleichem Rehabilitationserfolg sollte vor einem mit hohen Investitionskosten verbundenem flächendeckenden Ausbau von neuen ambulanten Strukturen in weiteren Studien der Bedarf für die ambulant/teilstationäre Rehabilitation ermittelt werden.
Diese retrospektive case-control Studie ist über einen sechsjährigen Zeitraum von 1994 bis 1999 ausgelegt mit der Zielsetzung, eine mögliche Korrelation zwischen dem Auftreten der nekrotisierenden Enterokolitis des Frühgeborenen und der Cholestase festzustellen. Es wurden in 552 neonatologischen Aufnahmen mit einem Geburtsgewicht ≤2500g und einer Gestationszeit ≤33 Wochen 51 Patienten mit nekrotisierender Enterokolitis (NEC) identifiziert (8,9% der Aufnahmen mit diesen Auswahlkriterien). Es handelte sich somit ausschließlich um Frühgeborene. Das mittlere Geburtsgewicht betrug 1023g und rangierte von 355g bis 2020g, wobei 90% der Patienten unter 1500g lagen, und die mittlere Gestationszeit betrug 28,2 Wochen (24 bis inklusive 33 Schwangerschaftwochen). Die Inzidenz der NEC war in männlichen Patienten höher als in weiblichen (männl. 29 Fälle, weibl. 22 Fälle). Von den 51 NEC-Fällen erkrankten 14 Patienten (27%) im Anschluss an die NEC an Cholestase, im Vergleich zur Kontrollgruppe (n=51, matched pairs-Prinzip), in der 3 Cholestasefälle auftraten (p=0,008). Die Cholestasegruppe wies Gestationszeiten zwischen 24 und 32 Wochen mit einer mittleren Gestationszeit von 28,3 Wochen auf, was demjenigen der NEC-Patienten ohne Cholestase (28,2 Wochen) und der Kontrollgruppe entspricht. 13 der 14 Cholestasefälle (93%) entwickelten sich erst nach Absetzen der totalen parenteralen Ernährung (TPE). Das Auftreten der NEC korrelierte invers mit dem Gestationsalter (r=-0,83) und mit dem Geburtsgewicht (r=-0,43), kürzere Gestationszeiten korrelierten mit höherem Manifestationsalter der NEC (r=-0,32), ebenso wie ein geringeres Geburtsgewicht (r=-8,4). Die NEC trat zwischen 1 und 122 Tagen postpartum auf (Mittelwert 27,9 Tage, Median 23 Tage). In dieser Studie wurde eine höhere NEC-Inzidenz in Mehrlingsgeburten festgestellt. 18,1% der insgesamt 83 aufgenommenen Mehrlinge, die unseren Suchkriterien entsprachen, erkrankten an NEC (im Gegensatz zu 7,3% der übrigen Patienten). Die epidemiologischen Daten ergaben eine NEC-Epidemie im Jahre 1998, da 21 Fälle (41,2% des Patientenkollektivs) in diesem Jahr auftraten. Die Keime, die in diesen Fällen identifiziert worden sind, ebenso wie deren Häufigkeitsverteilung in dieser Gruppe, entsprechen jedoch weitgehend denen des Gesamtkollektivs. Trotz der auffällig hohen Fallzahl konnte kein einzelner Erreger für die Epidemie verantwortlich gemacht werden. Unreifere Säuglinge entwickelten einen schwereren Krankheitsverlauf (r=-0,40), und in geringerem Maße auch Patienten mit niedrigerem Geburtsgewicht (r=-0,17). Die mikrobiologischen Daten ergaben eine Assoziation des Erregers Enterobacter cloacae mit einem schwereren und komplikationsreicheren Verlauf der NEC, zumal unter den betroffenen Patienten der Schweregrad höher war (p=0,001) und Darmperforationen (p=0,08) und letale Ausgänge der NEC (p=0,03) häufiger waren. Außerdem entwickelten diese Patienten häufiger eine Cholestase als die übrigen Patienten (p<0,05). Patienten mit Staphylococcus epidermidis zeigten ebenfalls schwerere Krankheitsbilder (Schweregrad 4,6 im Vergleich zu 3,8, p=0,27). Von den 51 NEC-Fällen erkrankten 14 Patienten (27%) im Anschluss an die NEC an Cholestase, im Vergleich zur Kontrollgruppe (n=51, matched pairs-Prinzip), in der 3 Cholestasefälle auftraten (p=0,008). Die Cholestasegruppe wies Gestationszeiten zwischen 24 und 32 Wochen mit einer mittleren Gestationszeit von 28,3 Wochen auf, was demjenigen der NEC-Patienten ohne Cholestase (28,2 Wochen) und der Kontrollgruppe entspricht. 13 der 14 Cholestasefälle (93%) entwickelten sich erst nach Absetzen der totalen parenteralen Ernährung (TPE). Diese Ergebnisse lassen auf einen pathophysiologischen Zusammenhang beider Krankheitsbilder schließen, wobei die Cholestase als Folge der NEC auftritt. Die Neugeborenencholestase unterliegt einer multifaktoriellen Pathogenese, die in der hier dargestellten Hypothese mit derjenigen der NEC verflochten ist und das Auftreten der Cholestase im Frühgeborenen als eine Folge der NEC, unabhängig von der TPE, erklären könnte. Die Ergebnisse dieser Studie unterstützen diese Hypothese gemeinsamer Schädigungsmomente (ischämisches Ereignis und darauffolgende Inflammation, Infektion) und Risikofaktoren (Prämaturität), die sowohl den Darm als auch die Leber betreffen. In beiden Organen trägt derselbe Risikofaktor, die Prämaturität, zur Ausbildung der Krankheitsbilder bei und fördert somit auch deren gemeinsames Auftreten in Frühgeborenen. Im Darm führt diese Unreife zu einer Imbalance zwischen den schädigenden und den protektiven Mechanismen der Mukosa, so dass die Keiminvasion und die Entstehung einer NEC erleichtert werden. In der Leber sind nach heutigen Erkenntnissen neben der noch schwachen Immunabwehr vor allem die reduzierte Aktivität der zellulären Transportmechanismen für die Pathogenese der Cholestase maßgeblich. Außerdem sind beide Organe ähnlichen Durchblutungsbedingungen ausgesetzt, d.h. Ereignisse, die zu einem reduzierten Blutfluss im Mesenterium führen und die die vom Truncus coeliacus abgehenden Gefäße mit einbeziehen, beeinflussen auch die Leber. Die Inflammation im Darm kann durch eine überschießende Zytokinproduktion, die für unreife Neugeborene charakteristisch ist, über den venösen Abfluss die Leber mit einbeziehen und dort zur Entstehung der Cholestase beitragen. Die bakterielle Komponente in der Pathogenese der NEC kann durch Endotoxine, die die Leber über die Pfortader erreichen, die Hepatozyten sowohl direkt als auch über die Induktion einer Entzündungsreaktion schädigen. Die bereits bekannte und hier nochmals bestätigte Assoziation des Erregers Enterobacter cloacae mit der neonatalen Cholestase und die Tatsache, dass es sich um ein endotoxinbildendes Bakterium handelt, bestärken zusammen mit diesen Ergebnissen die Vermutung, dass die NEC-assoziierte Cholestase des Frühgeborenen unter anderem auch auf einer infektiösen, vermutlich durch Endotoxine vermittelten Komponente, beruht.
Kardiovaskuläre Erkrankungen nehmen einen großen Sektor des gegenwärtigen Krankheitsspektrums ein. Die Entdeckung von Stammzellen, die sich zu Gefäßen oder Herzmuskelzellen entwickeln können, bietet neben bereits etablierten Behandlungen völlig neue therapeutische Ansatzpunkte zur kardialen Regeneration dieser Patienten. Neben embryonalen oder adulten Stammzellen kommen auch leicht aus dem peripheren Blut zu gewinnende endotheliale Vorläuferzellen für mögliche Therapien in Frage. Um den Ansatz der Differenzierung von Stamm- oder Vorläuferzellen in Herzmuskelzellen in vitro zu untersuchen, wurde ein bereits bekanntes Modell der Ko-Kultur von neonatalen Rattenkardiomyozyten mit verschiedenen Populationen von Stamm- oder Vorläuferzellen genutzt. Anlehnend an dieses Modell wurden in dieser Arbeit EPCs für sechs Tage zusammen mit neonatalen Kardiomyozyten der Ratte kultiviert. Es zeigt sich, dass EPCs nach sechs Tagen Ko-Kultur mit neonatalen Rattenkardiomyozyten in der Lage sind, zu Kardiomyozyten zu differenzieren und typische kardiomyozytäre Eigenschaften aufweisen, zu denen beispielsweise die Expression kardiospezifischer Proteine gehören sowie die Integration mit umliegenden Kardiomyozyten. Nach Etablierung dieses Versuchsansatzes wurde die Differenzierungskapazität der EPCs KHK erkrankter Patienten untersucht, sowie der Einfluß von Statineinnahme der Patienten, da eine prinzipielle Wirkung der Statine auf EPCs bereits vielfach beschrieben wurde. Es zeigt sich, dass auch EPCs von KHK-Patienten in der Lage sind, zu Kardiomyozyten zu differenzieren, wobei eine verringerte Differenzierungsrate zu beobachten ist. Durch Behandlung der Patienten mit Statinen lässt sich diese verringerte Kapazität verbessern, wie sich nicht nur in einer Querschnittsuntersuchung, sondern auch im prospektiven Verlauf gezeigt hat. Der Mechanismus, über den Statine eine Verbesserung der EPC-Differenzierung erreichen, ist nicht geklärt. Interessanterweise sind Statine in vitro nicht in der Lage, die EPCDifferenzierung zu Kardiomyozyten zu verbessern. Der vielversprechende Ansatz der Regeneration von Gewebe durch Stammzellen wird durch die vergleichsweise geringe Ausbeute an differenzierten Zellen limitiert. Aus diesem Grunde wurden verschiedene Versuche durchgeführt, die Differenzierungsrate in vitro anzuheben. Leider zeigen VEGF (beschrieben ist beispielsweise ein positiver Effekt auf Überleben und Migration), 5’-Azacytidine (Erhöhung der Differenzierungsrate embryonaler Stammzellen) oder hypoxisch-konditioniertes Medium (Erhöhung der Differenzierung von Stammzellen in neurales Gewebe) keinen positiven Effekt auf die EPC-Differenzierungsrate zu Kardiomyozyten. Von grundlegender Bedeutung ist es, die Mechanismen der Differenzierung von Stamm- oder Vorläuferzellen aufzuklären. Erschwert wird diese Aufgabe durch die Möglichkeit, dass in verschiedenen Geweben verschiedene Mechanismen (Zellfusion auf der einen und Transdifferenzierung auf der andere Seite) für die Stammzellintegration verantwortlich sein könnten. Mithilfe einer Ko-Kultur der EPCs mit fixierten Kardiomyozyten konnte gezeigt werden, dass die Differenzierung der EPCs zu Kardiomyozyten den direkten Kontakt zu anderen Kardiomyozyten benötigt, jedoch nicht zwingend auf einer Zellfusion basiert. Um den Differenzierungsprozess weiter zu untersuchen, wurden die für die Zell-Zell- oder Zell-Matrix- Interaktion wichtigen Proteine untersucht. In einem Blockierungsversuch der für die Zell-Matrix- Interaktion wichtigen Integrine, ließ sich kein Nachweis für eine Rolle der Integrine für den Differenzierungsprozess erbringen. Für die Zell-Zell- Interaktion stellen die kalziumabhängigen Cadherine eine wichtige Gruppe dar. In einer Ko-Kultur, die in einem kalziumfreien Medium durchgeführt wurde, ließ sich eine signifikante Reduktion des Überlebens der EPCs feststellen. Ein weiterer Versuch, der mit einer Mischung verschiedener Cadherin-blockierender Antikörper durchgeführt wurde, zeigt eine signifikante Reduktion der Differenzierung der EPCs in Kardiomyozyten. Die Untersuchung, welches Cadherin für den Differenzierungsprozess eine besondere Bedeutung spielt, ist Gegenstand gegenwärtiger Untersuchungen. Diese Doktorarbeit zeigt, dass EPCs prinzipiell in der Lage sind, in Kardiomyozyten zu differenzieren. Ebenso sind EPCs KHK-erkrankter Patienten in der Lage in Kardiomyozyten zu differenzieren, jedoch zu einem geringeren Prozentsatz. Statinbehandlung steigert den Prozentsatz der EPC-Differenzierung bei KHK-erkrankten Patienten. Mit medikamentöser Behandlung (beispielsweise Statineinnahme) könnte der Stammzelltherapieansatz bei KHK-erkrankten Patienten unterstützt werden. Erste Hinweise für den komplexen Prozess der Progenitorzelldifferenzierung weisen auf einen kalziumabhängigen, Cadherin-vermittelten Mechanismus hin.
NO ist ein gasförmiges Molekül, das durch drei verschiedene NO-Synthasen hergestellt werden kann. Die Signalkaskaden von NO sind multipel und sehr stark von der jeweiligen Konzentration abhängig. In niedrigen Dosen ist NO an der Regulation physiologischer Prozesse beteiligt, wohingegen hohe NO-Spiegel, wie sie von der induzierbaren NO Synthase (iNOS) im Verlauf von entzündlichen Erkrankungen produziert werden, zytotoxische Effekte wie Apoptose und Nekrose bedingen können. Der Wachstumsfaktor PDGF kann durch Inhibition der iNOS Expression, dieser hohen NO Produktion entgegen wirken. Ob NO im Gegenzug auch eine Wirkung auf das PDGF-System aufweist, sollte mit dieser Arbeit geklärt werden. Da die Aktivität von PDGF letztendlich von der Rezeptormenge abhängt, wurde die expressionsmodulatorische Wirkung von NO auf der PDGF-Rezeptorebene untersucht.
Im ersten Teil der Arbeit wurden MZ mit dem NO-Donator DETA-NO stimuliert. Mittels PCR-Analyse konnte gezeigt werden, dass NO die PDGFR-α-mRNA Expression zeit- und dosisabhängig induziert. Die Expression von PDGFR-β wird hingegen nicht wesentlich beeinflusst. Western-Blot-Analysen (WB) bestätigten die Regulierbarkeit des PDGFR-α auch auf Translationsebene. Als nächstes sollte geprüft werden, ob die durch exogene Applikation eines NO-Donatoren hervorgerufene Induktion des PDGFR-α auch durch eine endogene NO-Produktion imitiert werden kann. Hierzu wurden MZ mit dem Zytokin IL-1β inkubiert. IL-1β steigert die iNOS und auch die PDGFR-α-Expression durch Induktion von Transkriptionsfaktoren. Die IL-1β bedingte PDGFR-α-Expression könnte dabei über zwei Mechanismen reguliert werden: Einerseits über die gesteigerte Synthese von NO durch iNOS und andererseits durch direkte Interaktionen der IL-1β-induzierten Transkriptionsfaktoren mit dem PDGFR-α-Promotor. Um die NO bzw. iNOS-vermittelte von der Promotor-vermittelten Wirkung zu unterscheiden, wurden MZ zusätzlich mit dem NOS-Inhibitor L-NMMA inkubiert. L-NMMA war im Stande die durch IL-1β hervorgerufene Erhöhung der PDGFR-α Proteinmenge signifikant auf 60% zu reduzieren, was die Beteiligung der iNOS bzw. von NO an der IL-1β vermittelten Regulation des PDGFR-α impliziert. NO entfaltet seine Wirkung über verschiedene Signalkaskaden. Der klassische Weg verläuft über die Aktivierung der löslichen Guanylatzyklase (sGC). Um die Beteiligung der sGC an der NO-vermittelten Induktion des PDGFR-α zu untersuchen, wurden DETA-NO stimulierte MZ zeitgleich mit ODQ, einem Inhibitor der sGC inkubiert. Die durch NO verursachte Erhöhung der PDGFR-α-Proteinmenge konnte durch die gleichzeitige Zugabe von ODQ komplett gehemmt werden. Die Behandlung von MC mit dem sGC-Aktivator YC-1 imitierte andererseits den NO-Effekt. Beide Versuche zusammengenommen beweisen die Notwendigkeit der sGC-Aktivierung zur NO-vermittelten Induktion des PDGFR-α. Da viele Gene schon auf Transkriptionsebene durch NO beeinflusst werden, wurde der an einen Vektor gebundene PDGFR-α-Promotor vor das Luziferase-Gen kloniert und MZ mit diesem Konstrukt transfiziert. Die transfizierten MZ wurden mit DETA-NO oder 8-BromocAMP stimuliert. cAMP erhöht die Aktivität des PDGFR-α-Promotors und diente somit als Positivkontrolle. Die Promotoraktivität wurde indirekt über das Luziferase-Renilla-System bestimmt. Da NO im Gegensatz zu 8-Bromo-cAMP die Promotoraktivität nicht erhöhte, ist davon auszugehen, dass die NO-abhängige Induktion des PDGFR-α posttranskriptionell erfolgt oder, dass das NO-responsive Element nicht in unserem Konstrukt enthalten war.
Im letzten Abschnitt meiner Arbeit wurde die Funktionsfähigkeit des neusynthetisierten PDGFR-α Proteins bestätigt. Hierzu wurde die Phosphorylisierung vom PDGFR-α und von einem weiteren in der PDGF-Signalkaskade angeordneten Enzym, der antiapoptotisch wirksamen Proteinkinase B (PKB) untersucht. Mit DETA-NO vorbehandelte MZ wurden mit PDGF-BB stimuliert und eine Nachweisanalyse mit einem Phospho-spezifischen Antikörper der gegen pTyr720-PDGFR-α (pPDGFR-α) gerichtet ist, durchgeführt. Der Vergleich mit nichtvorbehandelten MZ belegt eindeutig, dass die NO vermittelte Erhöhung der basalen PDGFR-α-Proteinmenge auch zu einer Zunahme an detektierbarem pPDGFR-α führt, die dann wiederum eine Verstärkung der Signaltransduktion zur Folge hat. So konnten in DETANO vorbehandelten MZ, die mit dem α-Rezeptor spezifischen Liganden PDGF-AA stimuliert wurden, eine vergleichsweise erhöhte PKB-Phosphorylierung festgestellt werden. In einer Kooperation mit Dr. L. Schäfer (Universität Münster) konnte ferner gezeigt werden, dass die NO-Abhängigkeit der PDGFR-α Proteinexpression auch im Krankheitsverlauf eines experimentellen Glomerulonephritismodells, zu beobachten ist. Durch WB-Analysen und immunhistologischen Färbungen konnte dargelegt werden, dass die Vorinjektion des iNO-Sspezifischen Inhibitors L-NIL die Produktion von phosphoryliertem und unphosphoryliertem PDGFR-α Protein in Anti-Thy.1.1-behandelten Ratten signifikant hemmt. Zusammenfassend weisen die Ergebnisse darauf hin, dass NO über eine Aktivierung der sGC, die Produktion von funktionsfähigem PDGFR-α- Protein in vitro und in vivo steigert. Die pathophysiologische Bedeutung der NO-vermittelten Induktion des PDGFR-α im Krankheitsprozess der GN, wird gegenwärtig in weiteren in vivo Experimenten untersucht.
Der Dritte Bericht des Zwischenstaatlichen Ausschusses für Klimawandel (IPCC, 2001a, b) bestätigt den Einfluss des Menschen auf das globale Klima und warnt vor einem Temperaturanstieg und vor Niederschlagsveränderungen in den nächsten 100 Jahren, die gesellschaftlichen Wohlstand und Umwelt nachhaltig beeinträchtigen können. Dabei werden weitreichende Folgen des Klimawandels angenommen, vom Anstieg des Meeresspiegels und einer möglichen Degradation von Landflächen bis hin zum Verlust von Tier- und Pflanzenarten, der Verknappung von Wasserressourcen, einer Zunahme von natürlichen Katastrophen wie Überschwemmungen und Dürren, der Ausbreitung von Krankheiten sowie negativer Auswirkungen auf die Nahrungsversorgung der Bevölkerung. Klimawandel ist dabei nur ein Aspekt des weiter gefassten ‘Globalen Wandels’, der eine Vielzahl von anthropogen verursachten Veränderungen der Umwelt einschließt. So wird zum Beispiel erwartet, dass auch demographische und sozioökonomische Entwicklungen sowie vom Menschen verursachte Landnutzungsänderungen eine erhebliche Auswirkung auf den zukünftigen Zustand der globalen Umwelt haben werden. Zu den gravierendsten Folgen des Globalen Wandels gehört die Veränderung der räumlichen und zeitlichen Verteilung der lokalen und regionalen Wasserressourcen. Es müssen daher Strategien entwickelt werden, um sowohl die Bevölkerung als auch die Umwelt vor den möglichen negativen Auswirkungen von erhöhten oder erniedrigten Pegelständen in Fließgewässern zu schützen, oder sie auf eine Veränderung der verfügbaren Wassermengen vorzubereiten. Zur Entwicklung dieser Strategien wiederum werden wissenschaftliche Szenarien und Modellberechnungen benötigt, mit deren Hilfe sich zukünftige hydrologische Verhältnisse abschätzen lassen. Zahlreiche derartige Szenarienanalysen wurden bereits durchgeführt, um den Einfluss des Klima- und Globalen Wandels auf das Wasserdargebot und auf das hydrologische Abflussregime zu untersuchen. Da Flusseinzugsgebiete eine natürliche und angemessene Betrachtungseinheit für dieses Problem darstellen, konzentrieren sich die meisten dieser Studien auf mittlere bis große Einzugsgebiete oder auf bestimmte Regionen zusammenhängender Flussgebiete. In Europa gibt es dazu Beispiele aus den frühen neunziger Jahren, als die Resultate der ersten Klimamodelle verfügbar wurden (z.B. Ott et al., 1991: für die Mosel; Kwadijk und van Deursen, 1993: Rhein; Vehviläinen und Huttunen, 1994: Vuoksi; Broadhurst und Naden, 1996: Severn; Bergström, 1996: Einzugsgebiet der Ostsee). Für diese Studien wurden hydrologische Modelle des jeweiligen Einzugsgebiets entwickelt und der Einfluss des Klimawandels auf den Abfluss bestimmt. Krahe und Grabs (1996) haben ein Wasserbilanzmodell mit einer Auflösung von 0.5° x 0.5° für den gesamten mitteleuropäischen Raum entwickelt und es anhandder Abflussdaten des Rheins, der Weser, der Ems, der Elbe und des deutschen Teils der Donau validiert. Arnell (1994, 1999), bzw. Arnell et al. (2000) untersuchten die Auswirkung des Klimawandels auf europäische Wasserressourcen ebenfalls mithilfe rasterbasierter Modellansätze. Schließlich zeigten Stanners und Bourdeau (1995), EEA (1999), Parry (2000), oder auf globaler Ebene WBGU (1999) und IPCC (1992, 2001a, b), in allgemeineren und politisch orientierten Untersuchungen den gegenwärtigen Zustand sowie mögliche zukünftige Entwicklungen der Umwelt in Europa und weltweit auf, einschließlich verschiedener Aspekte der kontinentalen Wasserressourcen und der Hydrologie. Im Vergleich zu den zahlreichen einzugsgebietsorientierten Analysen und ihrem stetig steigenden wissenschaftlichen Anspruch bis hin zu äußerst detaillierten Fragestellungen sind die regionalen oder globalen Ansätze jedoch eher selten und bleiben meist relativ unspezifisch in ihren Schlussfolgerungen. Darüber hinaus wird die Auswirkung der Wassernutzung, die erheblich zur Veränderung der zukünftigen Wasserressourcen und Abflussmengen beitragen kann, in den meisten Fällen aufgrund des Fehlens entsprechender Daten nicht berücksichtigt. In Anbetracht dieser Mängel wurde 1999 am Wissenschaftlichen Zentrum für Umweltsystemforschung an der Universität Kassel das EuroWasser-Projekt initiiert, auf dessen Durchführung die vorliegenden Dissertation beruht. In einem integrierten Modellansatz wurden in EuroWasser die Folgen von Klimawandel und sozioökonomischen Veränderungen auf die natürliche Wasserverfügbarkeit und die Wassernutzung auf gesamteuropäischer Ebene untersucht (siehe Abschlussbericht, Lehner et al., 2001). Das EuroWasser-Projekt versucht dabei drei aus Sicht von Gesellschaft, Ökonomie und Umwelt kritische Fragen zu beantworten: (1) Wie hoch ist der gegenwärtige Wasserstress in verschiedenen Regionen Europas, und welche zukünftigen Veränderungen sind zu erwarten? (2) Wie wird sich der Globale Wandel auf das europäische Wasserkraftpotenzial auswirken? Und (3) In welchen "kritischen Gebieten" Europas muss, basierend auf den Ergebnissen verschiedener Szenarien des Globalen Wandels, damit gerechnet werden, dass die Hochwasser- und Dürregefahr in Zukunft zunimmt, und von welcher Größenordnung sind diese Veränderungen? ...
Untersuchungen zur Rolle von 14-3-3-Proteinen beim Wachstum von Neuriten in neuronalen Kulturen
(2004)
In dieser Arbeit konnte per Western-Blot-Analyse gezeigt werden, dass 14-3-3-Proteine ein primär überlappendes Expressionsmuster in den Organen der Ratte Herz, Leber, Niere, Pankreas, Lunge, Milz, Groß- und Kleinhirn, zeigen. 14-3-3 zeta wird in Großhirnhomogenaten wesentlich stärker exprimiert als in allen anderen Organen, auch dem Kleinhirn, was für eine wichtige Rolle bei höheren neurologischen Funktionen sprechen könnte. Daher wurde auf eine isoformspezifische Funktion von 14-3-3 zeta in Nervenzellen spekuliert. Es wurden Deletionsmutanten von 14-3-3 zeta per PCR hergestellt und in den Expressionsvektor pcDNA3.1 kloniert. HEK-Zellen wurden mit diesem Plasmid und pEGFP-C-Aktin, einem Vektor, der die Gene für F-Aktin und grünes Fluoreszenzprotein aneinander gekoppelt enthält, kotransfiziert. Die Konstrukte 14-3-3 zeta-C-Terminus und -Helix 5/6 sollten in den Zellen so reichlich exprimiert werden, dass sie dominant-negativ wirken, indem sie die Funktion des endognen, intakten Proteins unterdrücken. Der generelle Transfektionserfolg zeigte sich durch eine kräftige grüne Anfärbung des neu synthetisierten Aktins in einem Großteil der Zellen. Die Zellen waren sämtlich, egal mit welchem 14-3-3-Konstrukt sie transfiziert waren, zu einer bedarfsgerechten Umlagerung ihres Aktins in wachsenden und sich teilenden Zellen in der Lage und zeigten einen normalen Aktinkortex. Auch morphologische Auffälligkeiten ergaben sich nicht. Die Methode der Aktinfärbung mittels pEGFP-C-Aktin-Transfektion konnte etabliert und mit der Darstellung des Aktins durch fluoreszenzmarkiertes Phalloidin verglichen werden. Ferner konnten durch die Proteinbestimmung in sich differenzierenden PC12-Zellen die unterschiedlichen Expressionsmuster der einzelnen 14-3-3 Isoformen während der Neurogenese und die frühe und drastische Induktion von 14-3-3 epsilon zum Zeitpunkt der Neuritenanlage gezeigt werden. Schließlich wurde die subzelluläre Kompartimentierung der verschiedenen 14-3-3-Isoformen durch Doppelimmunfluoreszenzfärbung gezeigt. Sie haben untereinander sehr ähnliche Expressionsmuster und halten sich überwiegen im Zytoplasma und der perinukleären Region auf. Den Nukleus sparen 14-3-3-Proteine in diesen Zellen im wesentlichen aus und gelangen auch nicht direkt an die Plasmamembran. Die Vesikelpopulation, die mit dem Vesikelmarker Synaptophysin angefärbt wurde, befindet sich in denselben Zellkompartimenten wie 14-3-3, innerhalb derer die beiden Proteine aber räumlich voneinander getrennt bleiben und nicht kolokalisieren.
Die vorliegende Dissertationsschrift beschreibt die Assoziation des arteriellen Blutdrucks und seiner einzelnen Parameter zur Intima Media-Verdickung des extracraniellen hirnversorgenden Karotissystems als Ausdruck für Frühstadien der Atherosklerose. Die Untersuchung wurde an einer Population von 6005 unselektierten Normalpersonen durchgeführt. Bei allen untersuchten Personen wurde ein standardisiertes Ultraschalluntersuchungsprotokoll durchgeführt und in einem ebenfalls standardisierten Untersuchungsgang die aktuellen Blutdruckparameter erhoben. Darüber hinaus erfolgte die Erfassung der weiteren relevanten vaskulären Risikofaktoren Nikotinabusus, Diabetes mellitus, Hypercholesterinämie, Übergewicht und Bewegungsmangel in jeweils standardisierten Untersuchungsprotokollen. Das extracranielle Karotissystem wurde im Bereich der A. carotis communis, der A. carotis-Bifurkation und der A. carotis interna mittels hochauflösender Duplexsonographie anhand eines standardisierten Untersuchungsganges beidseits untersucht und sekundär die Intima Media-Dicke mit Hilfe eines semiautomatischen Softwareprogramms exakt vermessen. Von den weiteren Analysen wurden alle Probanden mit signifikanten Plaque des extracraniellen Karotissystems ausgeschlossen, so dass zur Untersuchung der Assoziation des arteriellen Blutdrucks zu Frühformen der Intima Media-Verdickung schliesslich 5590 Personen zur Verfügung standen. Bei allen 5590 Personen wurden als aktuelle Blutdruckparameter in einer standardisierten Dreifach-Messung der Mittlere systolische und diastolische Blutdruck sowie die systolische Blutdruckvariabilität untersucht. Darüber hinaus erfolgte die Analyse des Faktors „Bekannter arterieller Hypertonus“ hinsichtlich seiner Bedeutung für die Intima Media-Verdickung. Alle untersuchten Parameter des arteriellen Blutdrucks wurden in einer Einzelfaktoranalyse sowie unter Einbeziehung der korrespondierenden vaskulären Risikofaktoren einer multivariaten Analyse unterzogen. Schließlich wurde der Einfluss einer vorbestehenden antihypertensiven Medikation auf die einzelnen Blutdruckparameter und ihrer Assoziation zur Intima Media-Dicke untersucht. Der bedeutendste Einzelfaktor des arteriellen Blutdrucks hinsichtlich der Entstehung einer Intima Media-Verdickung des extracraniellen Karotissystems ist der Mittlere systolische Blutdruck. Sowohl in der Einzelfaktoranalyse als auch unter Einbeziehung aller weiterer vaskulärer Risikofaktoren besteht eine statistisch hochsignifikante Beziehung zur Intima Media-Dicke. Ebenfalls von statistisch hochsignifikanter Bedeutung ist der anamnestisch erhobene Faktor einer „Vorbekannten arteriellen Hypertonie“. Sowohl in der Einzelfaktoranalyse als auch unter Einbeziehung der korrespondierenden vaskulären Risikofaktoren ist eine bedeutende Assoziation zur Intima Media-Dicke nachgewiesen worden. Weniger groß ist dagegen die Bedeutung der Faktoren „Mittlerer diastolischer Blutdruck“ und „Systolische Blutdruckvariabilität“. Hier wurden in der Einzelfaktoranalyse für beide Parameter eine statistisch hochsignifikante Assoziation zur Intima Media-Dicke erhoben, die jedoch in der multivariaten Untersuchung unter Berücksichtigung der weiteren Risikofaktoren nicht in statistisch relevanter Form reproduziert werden konnte. Alle untersuchten Einzelparameter des arteriellen Blutdrucks wiesen auch unter antihypertensiver Medikation eine hochsignifikante Beziehung zur IMT des extracraniellen Karotissystems auf, so dass der Einzelfaktor „Antihypertensive Medikation“ keine präventive Wirkung hinsichtlich der IMT hat. Entscheidend ist hier nach den vorliegenden Daten die tatsächliche Reduktion der Blutdruckwerte in den normotensiven Bereich, wobei dem Systolischen Blutdruck die größte Bedeutung zukommt.
Das Y-Chromosom war, mit Ausnahme der Pseudoautosomalen Regionen, während der Genomevolution einer enormen Veränderung unterworfen, die zu einem weitesgehenden Verlust oder der Inaktivierung von Genen führte, die nicht in den Prozess der Geschlechtsdetermination bzw. –differenzierung, oder Spermatogenese involviert sind. Gleichzeitig kam es durch Amplifikation von funktionellen Kopien der Spermatogenesespezifischen Genen zu sog. amplifikonischen Genfamilien, die fast ausschliesslich im Testis exprimiert werden. TSPY (Testis Specific Protein Y-encoded) ist nach bisherigen Untersuchungen mit 35 Kopien, bestehend aus funktionellen Kopien und inaktiven Pseudogenen, die grösste und homogenste Protein-kodierende amplikonische Genfamilie auf dem Y-Chromosom und wurde im Rahmen dieser Arbeit genauer analysiert. Es wird unter normalen Bedingungen in den Spermatogonien des Testis exprimiert, aber es ist auch eine aberrante Expression in malignen Geweben, wie Gonadoblastom, Carcinoma in situ (CIS) des Testis oder in einer Fraktion von Prostatakarzinomen detektierbar. Aufgrund der Expression und der korrelierten Kopplungsanalyse wurde postuliert, dass es sich bei TSPY um ein Kandidatengen für den sog. Gonadoblastom-Locus auf dem Y-Chromosom (GBY) handelt. TSPY gehört ausserdem aufgrund einer evolutionär konservierten Domäne zur Familie der SET/NAP-Proteine. Andere Mitglieder dieser Familie sind z.B. in Proliferation, Zell-Zyklus-Regulation, Chromatin-Umbau und Kerntransport involviert. Durch die Analyse der TSPY-Transkription konnte anhand des LNCaP-Zellkultursystems die postulierte Androgen-abhängige TSPY-Transkription widerlegt werden. Zusätzlich wurden zwei TSPY-Transkripte unterschiedlicher Grösse und Transkriptionsraten detektiert, wobei das grössere Transkript TSPY-S stärker exprimiert wird als das kleinere Transkript TSPY-L. Ursache hierfür ist alternatives Splicing in Intron 4 des TSPY-Gens, das zur Expression der beiden Protein-Varianten mit unterschiedlichen C-Termini führt. Die durchgeführte Haplotyp-Analyse zur Identifizierung transkribierter TSPY-Gene konnte aufzeigen, dass das einzige funktionelle Gen des sog. TSPY minor Clusters (mit dem Haplotyp G-G-18) als einziges nicht alternativ gespliced wird und andererseits das häufigste TSPY-S Transkript (44 %) darstellt. Hierfür wird die Möglichkeit einer „locus-control-region“ diskutiert. Um Interaktionspartner von TSPY-S zu identifizieren und dadurch möglicherweise Hinweise auf die Funktion von TSPY zu erhalten, wurde das Hefe-Zwei-Hybrid-System eingesetzt. Vorversuche lokalisierten eine mögliche Transkriptions-Aktivierungsdomäne im N-Terminus von TSPY, weshalb eine N-terminale Deletion von TSPY-S, die einen grossen Teil der NAP Domäne und den C-Terminus enthält, als Köder eingesetzt wurde, um eine Testis-cDNABibliothek nach interagierenden Proteinen zu durchsuchen. Die Interaktion von TSPY mit den drei interessantesten Kandidaten hTid-1, dem menschlichen Homolog eines Tumor-Suppressor-Gens aus Drosophila, einem Mitglied der Ubiquitin-like-Proteinfamilie Ubiquilin 3 (UBQLN3), das aufgrund der Protein-Struktur eine Funktion bei der Regulation des Zellzyklus haben könnte und Isopetidase T (USP5), einer Ubiquitin-spezifische Protease, die an der proteasomalen Protein-Degradation beteiligt ist wurde durch Co-Transformation verifiziert und genauer analysiert. Immunhistochemische Experimente bestätigten die ausschliessliche zelluläre Lokalisation von TSPY in den Spermatogonien. Es konnten jedoch leichte entwicklungsspezifische Unterschiede gezeigt werden. In post-pubertärem und adulten Testis-Gewebe wird TSPY im Kern und Cytoplasma der mitotischen Spermatogonien exprimiert, aber in einem sehr grossen Anteil der ruhenden Spermatogonien im früh-kindlichen Testis (6 Monate) fehlt ein Kernsignal. Expression der EGFP (enhanced green fluorescent protein) -markierten Wildtyp cDNAs von TSPY-S und –L in HEK-293 Zellen bestätigte eine Protein-Lokalisation in Cytoplasma und Kern. Gezielte Deletion des C-Terminus der EGFP-TSPY-Fusionsproteine führte zur Degradation der Proteine, was die Bedeutung des variablen C-Terminus hervorhebt. Selektive Mutation einer mit den Computer vorhergesagten und durch einen Phosphorylierungs-Assay experimentell bestätigten CK2-Phosphorylierungs-Stelle im C-Terminus von TSPY-S verhinderte die Kern-Lokalisation, was darauf hindeutete, dass die C-terminale Phosphorylierung für die Lokalisation im Zellkern notwendig ist. Für TSPY-L konnte dieses Muster nicht bestätigt werden, da Mutationen im direkten C-Terminus von TSPY-L zur Protein-Degradation führten. Aufgrund der Datenlage wurde die Arbeitshypothese aufgestellt, dass TSPY im Cytoplasma durch CK2 phosphoryliert und in den Zellkern transportiert wird. Nach Androgen-Stimulus und Signal-Transduktion kommt es zur Kern-Lokalisation von CK2 und dadurch zur verstärkten Phosphorylierung von TSPY im Kern. Dort führt die Interaktion von TSPY mit den einzelnen identifizierten Proteinen zur Regulation des Zellzyklus und der mitotischen Proliferation der Spermatogonien, aber auch zur pathologischen Funktion von TSPY bei der Entstehung von Keimzelltumoren. Diese Arbeitshypothese müsste überprüft und verbessert werden, um die Funktion von TSPY bei der Proliferation der Spermatogonien und der Krebsentstehung aufzuklären.
Von Januar 1985 bis Dezember 1994 kamen 122 Patienten mit einem Kolonkarzinom im Abschnitt Flexura hepatica bis einschließlich Kolon descendens zur stationären Aufnahme in die damaligen Städtischen Kliniken Offenbach am Main. Bei allen Patienten wurde eine Laparotomie durchgeführt, zwei Tumoren konnten nicht reseziert werden, es wurden in diesen beiden Fällen Umgehungsanastomosen angelegt. Alle übrigen Karzinome wurden reseziert und Kolonanastomosierungen durchgeführt. Aufgrund verschiedener Operateure konnte keine exakt standardisierte Operationstechnik eingehalten werden, es wurde jedoch bei jeder Resektion nach der „no touch isolation technique“ von Turnbull vorgegangen. Das Krankengut setzte sich aus 57 Männern (46,7%) und 65 Frauen (53,3%) zusammen, dem entsprach ein Geschlechtsverteilungskoeffizient von 1 : 1,1 zugunsten der weiblichen Population. Die Altersgrenzen lagen zwischen 38 und 86 Jahren. Das Durchschnittsalter der Männer betrug 66,9 Jahre, das der Frauen 69,7 Jahre. Zur Aufnahme kamen 11% mit Karzinom im Tumorstadium I, 39% im Stadium II, 27% im Stadium III und 23% im Stadium IV. 10 Karzinome waren an der rechten Flexur, 42 im Kolon transversum, 33 an der linken Flexur und 37 im Kolon descendens lokalisiert. Die Auswertung erfolgte zum Teil aus eigenen Unterlagen, zum größeren Teil jedoch durch schriftliche Befragung der mitbehandelnden Ärzte. Bei 10 Patienten konnten keine weiteren Daten erhoben werden, bei den übrigen 112 Patienten waren Angaben und Befunde verfügbar. Bei den überlebenden Patienten wurde mindestens ein fünfjähriger Nachuntersuchungszeitraum eingehalten. In Anbetracht der geringen Häufigkeit von Kolonkarzinomen im untersuchten Bereich und der damit verbundenen geringen Fallzahl sind die vorliegenden Resultate jedoch nur bedingt relativierbar. Insgesamt fand sich für das Stadium I eine 5-Jahres-Überlebensrate von 81,8%, für das Stadium II eine von 59,1%, für das Stadium III von 51,9% und für das Stadium IV eine von 8%. Die perioperative Letalität (30 Tage) lag bei 8,2%. Lokoregionäre Rezidive entwickelten sich nach R0-Resektion in 13,7% der Fälle. Bei 26 Patienten entwickelten sich nach initialer R0-Resektion metastatische Absiedlungen. Insgesamt liegen die Überlebensraten im Vergleich zu Literaturangaben im Tumorstadium I und II unter den erwarteten Raten, dies ist jedoch zum Teil durch besondere Gegebenheiten im Einzelfall zu erklären. Im Tumorstadium III wurde eine Überlebenshäufigkeit deutlich über der erwarteten verzeichnet. Die Zahl lokoregionärer Rezidive liegt bei Vergleich mit anderen Autoren etwa im erwarteten Rahmen. Die perioperative Letalität wird zu mehr als 40% von Pneumonien verursacht und liegt über der, die in vergleichbaren Untersuchungen genannt wird.
Hintergrund: Unter dem zunehmenden Druck gesundheitsökonomischer Aspekte sollen die seit geraumer Zeit diskutierten „Clinical pathways“ einerseits die Qualität der medizinischen Versorgung und andererseits die Effizienz von Krankenhausabläufen verbessern. Ziel der vorliegenden Arbeit war es, die Abläufe der chirurgischen Behandlung der Arteria Carotis-Stenose an zwei europäischen Kliniken (Frankfurt am Main in Deutschland und New Castle in Großbritannien) zu evaluieren. Aus diesen Ergebnissen wurde ein „Clinical pathway“ erstellt, welcher mittels einer prospektiven Untersuchung einer dritten Gruppe auf seine Effizienz überprüft werden sollte. Methoden: Im Zeitraum zwischen Juni 1999 und Oktober 1999 wurden in Frankfurt Gruppe I 26 Patienten, in New Castle im Zeitraum vom 01. bis 30. September 2000 25 Patienten retrospektiv bezüglich demographischer Daten, Risikofaktoren, Begleiterkrankungen, klinischem Insuffizienzstadium, Häufigkeit und Durchführungszeitpunkt (ambulant/ stationär) von Standarduntersuchungen, stationärer Liegedauer (prä- und postoperativ), Anästhesieform, intraoperativem Monitoring und die klinischen Ergebnisse untersucht. Dabei war von Interesse, welchen finanziellen Rahmen dieses Krankheitsbild in den verschiedenen Bereichen in Anspruch nahm und ob es Unterschiede in den aufgezählten Bereichen zwischen Frankfurt I und New Castle gab. Nach der Datenerhebung wurde unter Einsicht der aktuellen Literatur erarbeitet, in welchen Bereichen eine Kosteneinsparung am ergiebigsten wäre. Unter Berücksichtigung aller oben genannten Faktoren wurde von Juli 2002 bis September 2002 prospektiv eine dritte Patientengruppe untersucht (Frankfurt Gruppe II), an der die gewonnenen Ergebnisse im Rahmen eines „clinical pathway“ umgesetzt wurden. Ergebnisse: Das Alter und die Verteilung des Geschlechts waren in den drei Gruppen annähernd gleich. Mit Ausnahme der peripheren vaskulären Gefäßerkrankung, welche in New Castle deutlich höher war, waren auch Risikofaktoren sowie Begleiterkrankungen in den 3 Gruppen vergleichbar. In Frankfurt Gruppe I wurden präoperativ bei 65% der Patienten eine Angiographie und in New Castle standardmäßig bei allen Patienten diese Untersuchung durchgeführt. In Frankfurt Gruppe II lediglich bei 30%. In Frankfurt Gruppe I wurden im Untersuchungszeitraum vorrangig asymptomatische Stenosen Stadium I mit einer hochgradigen bis filiformen Lumeneinengung operiert (61,5%). In New Castle wiesen 68% der Patienten eine symptomatische ACI-Stenose Stadium II mit einer Lumeneinengung >75% auf. In Frankfurt Gruppe II fand man in 60% Stadium IV Patienten. In Frankfurt Gruppe I wurden alle Eingriffe während des Evaluationszeitraums in Intubationsnarkose durchgeführt, wobei in zwei Fällen eine zweite Operation in der gleichen Sitzung durchgeführt wurde. In New Castle wurden 8 Patienten in Regionalanästhesie operiert, wobei in einem Fall auf eine Intubationsnarkose gewechselt werden musste. In Frankfurt Gruppe II wurden alle Patienten in Intubationsnarkose operiert. In Frankfurt Gruppe I wurden 46% der Patienten vorübergehend auf der Intensivstation beaufsichtigt, in New Castle wurde ein Patient intensivmedizinisch versorgt, in Frankfurt Gruppe II waren es 30%. Die stationäre Gesamtaufenthaltsdauer betrug in Frankfurt Gruppe I 10 Tage. Davon waren im Durchschnitt 4,0 ± 3,3 Tage präoperativ und 6,0 ± 2,6 Tage postoperativ. Von insgesamt 5 Tagen war der Patient in New Castle im Durchschnitt 4,0 ± 3,3 Tage präoperativ und 1,0 ± 1,2 Tag postoperativ stationär untergebracht. In Frankfurt Gruppe II war ein Patient im Durchschnitt 6 Tage stationär. Davon 2,0 ± 1,3 Tage präoperativ und 4,0 ± 1,6 Tage postoperativ im Mittelwert. Bei jeweils einem Patienten an beiden Kliniken musste ein Revisionseingriff aufgrund einer Nachblutung vorgenommen werden (Frankfurt Gruppe I und New Castle). Keine Klinik wies einen postoperativen Todesfall auf. In Frankfurt Gruppe I fanden sich postoperativ 4 reversible und keine permanenten neurologischen Defizite. In New Castle waren 1 reversibles und 2 permanente Defizite zu verzeichnen. In Frankfurt Gruppe II fand man 1 passageres Defizit und 6 permanente Defizite. Von diesen Defiziten waren 6 periphere und 1 zentral neurologisch. Die Kosten für eine Standard Carotis-TEA betrugen in der Frankfurt Gruppe I 2.755,10 Euro, in New Castle 2.497,96 Euro und als Ergebnis der Umsetzung des „clinical pathways“ in der Frankfurt Gruppe II 2.372,45 Euro jeweils im Mittelwert. Anhand von Literaturrecherchen und Beurteilung der Ergebnisse aus der Frankfurt Gruppe I und New Castle ergab sich, nach Umsetzung eines „clinical pathway“ in der Frankfurt II Gruppe, dass eine Kosteneinsparung durch eine gezieltere Führung jedes Patienten ohne Erhöhung der Morbidität und Mortalität möglich ist. Diese gezielte Führung beinhaltet die Unterteilung der Patienten in eine von drei Einheiten, je nach zerebralem Insuffizienzstadium der Erkrankung und Compliance des Patienten (erte Einheit für das Insuffizienzstadium I und II, zweite Einheit für das Stadium IV und dritte Einheit für Patienten aus einer neurologischen Klinik). Ziel der Einheit 1 ist die ambulante Diagnostik mit Operation am Aufnahmetag, postoperativer Betreuung über den AWR und Entlassung spätestens am 2. postoperativen Tag. In der Einheit 2 soll der Patient versorgt werden, welcher aufgrund seiner fortgeschrittenen Erkrankung mehr Zuwendung benötigt. Hier erfolgt die gesamte Diagnostik stationär. Die postoperative Betreuung richtete sich individuell nach dem Zustand des Patienten, jedoch mit dem primären Ziel eine Versorgung über den AWR anzustreben. Die Einheit 3 ist für Patienten vorgesehen, welche mit der kompletten präoperativen Diagnostik von einer vornehmlich neurologischen Abteilung zum operativen Eingriff verlegt werden. Für diese Patienten wird postoperativ ein Bett auf der Intensivstation bereit gestellt. Sobald es der Zustand des Patienten erlaubt, wird er zur weiterführenden Behandlung in seine präoperative Klinik zurückverlegt. Durch die Zuteilung der Patienten zu einem der„clinical pathways“/ Einheiten war es möglich, zum einen die Anzahl der stationären Tage und zum anderen die Therapie von Patienten auf der Intensivstation zu reduzieren. Dieses wurde erreicht, obwohl 60% der Patienten der Frankfurt II Gruppe ein Insuffizienzstadium IV aufwiesen, im Vergleich zu „nur“ 10% und 20% in der Frankfurt Gruppe I und in New Castle. Durch die Behandlung nach einem dieser drei „clinical pathways“/ Einheiten konnte bei gleichbleibendem Behandlungserfolg eine Kostenreduktion von 14% erzielt werden.
In der vorliegenden Arbeit wurden die Struktur und die Dynamik von Oligosacchariden und DNAs untersucht. Bezogen auf Oligosaccharide wurde die Struktur von Raffinose und Saccharose mittels dipolarer Kopplungen präzisiert. Des weiteren wurde ein N–Glykan isoliert und chemisch modifiziert. An diesem N–Glykan wurde eine chemische Modifikation mit einer Tyrosin–Boc–Schutzgruppe durchgeführt, so dass das Glykan keine Mutarotation mehr zeigt, wodurch es möglich wurde, dipolare Kopplungen zu messen, die für Strukturrechnungen eingesetzt werden können; verschiedene Orientierungsmedien wurden ausprobiert. Des weiteren wurde das N–Glykan über einen Biphenyllinker an einen paramagnetischen Tag gekoppelt, wodurch ebenfalls eine Vorzugsorientierung im Magnetfeld erreicht wird. Bezogen auf die DNAs wurden vor allem Rhodamin–markierte DNA–Duplexe untersucht. Die verwendeten Farbstoffe sind Tetramethylrodamin und Rhodamin 6G. Die Modifikation befand sich stets am 5’–Ende. Hierbei wurde gefunden, dass der Farbstoff haupsächlich als quasi weiteres Basenpaar auf der DNA aufliegt. Für diesen gestackten Farbstoff wurden, abhängig von der Sequenz, entweder zwei oder vier mögliche Konformationen gefunden. Bei den Sequenzen, bei denen der Farbstoff nur in zwei Konformation vorliegt, wurden Strukturrechnungen durchgeführt. Zudem zeigte sich in den NMR–Spektren aller Sequenzen eine deutliche Dimerisierung, die temperatur-, farbstoff– und sequenzabhängig ist. Weiterhin wurde eine konzentrationsabhängige Dynamik gefunden. Die aus den NMR–Messungen erhaltenen Ergebnisse wurden mit Resultaten aus Fluoreszenzmessungen verglichen, wobei sich eine hervorragende Übereinstimmung zeigte. Des weiteren wurde die Struktur von DNA–Duplexen untersucht, die mit dem Fluoreszenzfarbstoff 9–Amino–6–chloro–2–methoxyacridin (ACMA) modifiziert worden sind. Hierbei handelt es sich nicht um eine endständige Modifikation, sondern um eine interne Modifikation. Auch hier wurden verschiedene Sequenzen untersucht. Bei allen Sequenzen interkalierte das ACMA. Mit einer Sequenz wurde eine Strukturrechnung durchgeführt. Als Gegenbase zum ACMA wurde in allen betrachteten Sequenzen ein Adenin gewählt. Strukturell wurde gefunden, dass die Gegenbase durch die Interkalation des ACMAs mit der DNA eine extrahelikale Position einnimmt. Es wurde auch versucht, dipolare Kopplungen zu messen. Zu diesem Zweck wurden verschiedene Orientierungsmedien ausprobiert. Ebenfalls probiert wurde, dipolare Kopplungen durch das Autoalignment der DNA im Magnetfeld zu erhalten. Auch im Falle der mit ACMA markierten DNA wurden die NMR–spektroskopischen Ergebnisse mit den Ergebnissen aus Fluoreszenzmessungen verglichen, wobei sich ebenfalls eine gute Übereinstimmung zeigte. Ferner wurden NMR–spektroskopische Untersuchungen an mit nichtnatürlichen Nukleinsäuren modifizierten DNAs durchgeführt. Als nichtnatürliche Nukleinsäuren wurden Inosin, 2–Aminopurin, Deazaadenin, Deazaguanin sowie Bromoguanin verwendet. Die NMR–spektroskopischen Messungen wurden erfolgreich durchgeführt. Um die erhaltenen Daten abschließend interpretieren zu können, sind noch DFT–Rechnungen erforderlich, die im Rahmen einer anderen Dissertation durchgeführt werden.
Die Aufgabe der vorliegenden Arbeit war die Fragestellung zu untersuchen, ob die immunmagnetische Selektion mittels des Magnetic Absorbens Cell Sorter (MACS) im klinischen Maßstab möglich ist. Zum Zeitpunkt der Erstellung dieser Arbeit befand sich lediglich die Stammzellselektion mittels des CD34+Antigens im klinischen Einsatz. In dieser Arbeit wird der Einsatz von CD133+Antikörpern zur immunmagnetischen Stammzellselektion, der Einsatz von CD56+Antikörpern zur NK-Zell-Selektion und der Einsatz von GD2-Antikörpern zur Depletion von Neuroblastomzellen untersucht. 1. CD133 ist ein Stammzellmarker der auf frühen hämatopoetischen Stammzellen vorkommt, auch werden Leukämien beschrieben, die zwar CD34 positiv, jedoch CD133 negativ sind. Ein großer Teil der Versuche zur CD133+ immunmagnetischen Selektion wurde mit kyrokonservierten Pherisaten durchgeführt. Dazu musste eine Methode gefunden werden solche Pherisate zu selektionieren. Nach einer Auftrennung der Pherisate mittels Ficoll- Dichtegradient war dies möglich. Hier konnte eine Reinheit der CD34+Stammzellen im Median von 71,7%( Range 28,5-76,7%, n=5) bei kyrokonservierten Pherisaten verglichen mit 97,5% (96,6% und 98,5%, n=2) bei frischen Pherisaten erreicht werden. Die Recovery der Stammzellen war bei kyrokonservierten Präparaten jedoch deutlich schlechter[Median 20,7% nach CD133+Selektion und 34,8% nach CD34+Selektion kyrokonservierte Pherisate versus 48,9% nach CD133+Selektion und 77,95% nach CD34+Selektion bei einem frischen Pherisaten]. Zum direkten Vergleich wurden jeweils Parallelansätze der Selektion mit CD34+ und CD133+ Antikörper und zweimaliger Immunmagnetischer Selektion durch den MACS durchgeführt: Die dabei erzielten Reinheiten CD34+Stammzellen waren mit 85% (Range 71,7-98,5, n=5) nach D34+Selektion und 89,5% (Range 79,8-98%, n=5) nach CD133 Selektion vergleichbar, bei frischen Pherisaten lagen diese sogar bei 97,5% beziehungsweise 95,1%. Damit konnte gezeigt werden, dass es möglich ist, mittels des CD133+-Antikörpers Stammzellen in ausreichender Reinheit zu selektionieren. Die Recovery der CD34+Stammzellen lag nach CD133+Selektion bei ca. 60% der Stammzellen die durch CD34+ Selektion angereichert werden konnten. Dies war insofern zu erwarten da nur ca. 60% der CD34+Stammzellen auch CD133+ sind. 2. Die immunmagnetische Selektion von NK-Zellen wurde durch Markierung mit CD56+Antikörpern durchgeführt. Dabei wurde nach Anreicherung eine durchschnittliche Reinheit von 62,3% (Range 41,2-85,6%, n=3) erzielt. Im klinischen Einsatz sollte der Anteil der CD3+-Zellen möglichst gering sein. Durch Selektion mit CD56+Antikörper konnte der Anteil an CD3+ T-Zellen auf <104 CD3+ TZellen/ 108 NK-Zellen gesenkt werden. Durch eine immunmagnetische Depletion mit einem CD3+Antikörper konnte dieser Anteil weiter auf ca.103 T-Zellen/108NK-Zellen und damit um den log-2,4 gesenkt werden. Die Recovery der NK-Zellen zeigte in unseren Versuchen eine große Varianz[6,9%-89,5% ohne T-Zelldepletion; 6,6-60,6% nach T-Zelldepletion]. 3. Zur Depletion von Neuroblastomzellen anhand des GD2-Antigens wurde eine indirekte Markierung über einem chimären Human/Maus ch14.18􀂨CH2 GD2+ FITC markierten durchflusszytometrischen Antikörper und einem spezifischen immunmagnetische Antikörper gegen diesen Antikörper gewählt. Damit konnte der Anteil von 1,1% GD2+Zellen in der Ausgangsprobe auf 0,1% gesenkt werden. Die Reinheit der angereicherten Tumorzellen betrug 82,9%. Zusammenfassend konnte durch diese Arbeit gezeigt werden, dass es möglich ist durch immunmagnetische Techniken CD133+Stammzellen und CD56+NK-Zellen in hoher Reinheit anzureichern, sowie Neuroblastomzellen durch GD2+Antikörper aus einer Probe zu depletieren. Dies eröffnet eine Vielzahl neuer therapeutischer Ansätze zur Behandlung maligner Erkrankung im Kindesalter.
Das Ziel dieser Untersuchung war die Ermittlung der optimalen Klickreizrate für das auf der Registrierung der FAEP basierende Neugeborenen-Hörscreening. Bei hohem Signal-Rausch-Verhältnis (SNR) der registrierten Antworten war zu erwarten, dass mit einem leistungsfähigen Statistiktest der Potentialnachweis bereits nach relativ kurzer Zeit möglich ist. Somit sollte eine Verringerung des Zeitaufwandes für die Registrierung der FAEP erreicht werden. Die Untersuchungen wurden an 25 jungen, normalhörenden Probanden durchgeführt. Der Reizpegel betrug stets 40 dBnHL. In Untersuchung 1 wurden 20 verschiedene Klickreizraten im Bereich von 20/s bis 400/s mit einer Schrittweite von 20/s gewählt und die registrierten FAEP untersucht. Der Antwort-Nachweis erfolgte im Frequenzbereich. Dabei wurde zum Nachweis einer Antwort ein q-sample Test verwendet (q-sample uniform scores Test), der nicht nur die Grundwelle sondern auch die Oberwellen bis 800 Hz in die Testung einbezieht. Die Ergebnisse zeigten, dass bei den Reizraten 20/s, 40/s, 60/s sowie bei den höheren Reizraten 140/s und 160/s Erkennungsraten von 100% möglich sind. Gleichzeitig fielen die mittleren Nachweiszeiten bei diesen Reizraten am geringsten aus. Mit einer mittleren Nachweiszeit von 31 s scheint jedoch die Reizrate 140/s die optimale zu sein. Bekanntlich sind bei niedrigen Reizraten mittellatente Komponenten an der Reizantwort (40-Hz-Antwort) beteiligt. Diese sind bei Säuglingen nicht vorhanden und somit für ein Neugeborenen-Hörscreening nicht geeignet. Es ist zu erwarten, dass bei Neugeborenen die optimale Reizrate eine andere ist. Die Ergebnisse in Untersuchung 2 zeigten sogar, dass es möglich ist, mit dem neuen Screening-Algorithmus beide Ohren gleichzeitig zu testen. Hierfür muss lediglich ein zweiter Reiz mit leicht veränderter Reizrate auf das andere Ohr gegeben werden. In bereits durchgeführten, weiterführenden Untersuchungen wurde die neue Methode an Neugeborenen getestet. Im Gegensatz zu den Ergebnissen bei Erwachsenen, liegt die optimale Klickreizrate hier bei 90/s. Die mittlere Nachweiszeit beträgt 24,6 s. Mit den hier vorliegenden Ergebnissen wurde gezeigt, dass man mit dem neuen Algorithmus insgesamt zu einem Zeitbedarf für ein AEP-Hörscreening kommt, der nahe dem der OAE-Verfahren liegt und eine höhere Sensitivität und Spezifität aufweist. Die Aufnahme des Hörscreenings in die allgemeinen Screening-Untersuchungen des Neugeborenen sollte angestrebt werden, zumal nun eine nicht-invasive, schnelle und zuverlässige Methode zur Verfügung steht.
Im Mittelpunkt dieser Arbeit standen die Untersuchung der vertikalen HIV-Transmission, die damit verbundenen Risikofaktoren und das Management von Interventionsmöglichkeiten. In dieser retrospektiven Studie wurden 88 HIV-infizierte Schwangere untersucht, die zwischen dem 01.01.1997 und dem 31.12.2001 an der Universitäts-Frauenklinik in Frankfurt am Main entbunden wurden. Neben dem Schwangerschaftsverlauf und der Entbindung dieser HIV-infizierten Frauen wurden auch der postoperative Verlauf und das gesundheitliche Outcome der HIV-exponierten Kinder untersucht. Ein Großteil der untersuchten Frauen (52% aus Endemiegebieten stammend und 22% aus Deutschland) infizierte sich mit dem HI-Virus durch heterosexuelle Kontakte, nur 25% der Betroffenen wurde durch intravenösen Drogenabusus angesteckt. Mit der Zunahme an heterosexuellen Transmissionen von HIV kommt es zu Strukturveränderungen im Betroffenenkollektiv, das primär keiner Risikogruppe mehr zuzuordnen ist. Mit 43% wurde die HIV-Erstdiagnose in den meisten Fällen erst kurz vor oder während der Schwangerschaft gestellt. Anhand dieser Entwicklung und aufgrund der therapeutischen Interventionsmöglichkeiten wird die Notwendigkeit eines generellen HIV-Screenings bei allen schwangeren Frauen deutlich. 74% der Frauen befanden sich während der Schwangerschaft in dem klinisch asymptomatischen Stadium A der HIV-Infektion. Dagegen verlief bei 18% der Schwangeren die HIV-Infektion nicht mehr asymptomatisch und wurden der klinischen Kategorie B zugeordnet. Bei 8% der Betroffenen lag bereits während der Schwangerschaft das Vollbild AIDS vor. Diese wurden somit in die klinische Kategorie C eingeordnet. Im Hinblick auf das Infektionsrisiko des Kindes muss sowohl eine frühzeitige Diagnose als auch die gezielte Risiken Aufklärung und Schwangerschaftsberatung der Frauen stattfinden. Weder in Bezug auf das Alter der Mutter noch auf die Multiparität, konnte ein Zusammenhang mit der vertikalen Transmission festgestellt werden. 97% der Frauen wurden in der Schwangerschaft antiretroviral behandelt. Drei Prozent der Patientinnen lehnten, trotz ärztlicher Aufklärung, eine ART ab. Bei zwei Frauen mit ART (2,5%) in der Schwangerschaft und bei einer Patientin ohne ART (33,3%) kam es zu einer vertikalen HIV-Transmission. Dies entspricht bei 88 Schwangeren einer Transmissionsrate von insgesamt 3,4%. Die von uns untersuchten Schwangeren wiesen mit p= 0,0001 signifikant mehr Komplikationen im Schwangerschaftsverlauf auf, als die Schwangeren aus dem hessischen Vergleichskollektiv. Bei der Evaluation nur der transmissionsrelevanten Risikokomplikationen (vorzeitiger Blasensprung, vaginale Blutung, vorzeitige Wehentätigkeit mit i.v. Tokolyse, sexuell übertragbare Krankheiten) ergab sich in der Tendenz ein erhöhtes Transmissionsrisiko mit einer Transmissionsrate von 7,7% für Patientinnen mit diesen Komplikationen (2/26) im Vergleich zu einer wesentlich niedriger Transmissionsrate von 1,6% bei einem komplikationslosen Schwangerschaftsverlauf (1/61). Mit p= 0,15 konnte statistisch keine Signifikanz bewiesen werden. Entgegen den bisherigen Erkenntnissen konnten wir weder eine statistische Signifikanz (p= 0,12) zwischen einem schlechtem Immunstatus (CD4-Zellzahl ≤ 200/μl) der Mutter und der Häufigkeit des Auftretens von transmissionsrelevanten Komplikationen feststellen, noch eine Korrelation zwischen schlechtem Immunstatus und einem erhöhten vertikalen Transmissionsrisiko nachweisen, da keine der Schwangeren mit einer CD4-Zellzahl von ≤ 200/μl ihr Kind vertikal mit HIV infizierte. Durch den Einsatz von antiretroviralen Medikamenten, konnte die Viruslast bei 79 Patientinnen bis zum Ende der Schwangerschaft erfolgreich auf ≤ 10.000 Genomkopien/ml gesenkt werde. Mit p= 0,07 konnte statistisch zwar keine Korrelation zwischen der Höhe der Viruslast und der Häufigkeit des Auftretens von transmissionsrelevanten Risikokomplikationen in dem Schwangerschaftsverlauf bewiesen werden, allerdings stellte sich heraus, dass bei zwei Frauen, die ihr Kind vertikal mit HIV infizierten, die Viruslast bei > 10.000 Genomkopien/ml lag. Somit sprechen unsere Daten durchaus dafür, dass eine hohe Viruslast Auswirkungen auf die vertikale HIV-Transmission haben könnte oder sich zumindest als zusätzlicher, Risikoerhöhender Faktor erweist. 81% der Frauen wurden durch eine primäre Sectio caesarea entbunden. Bei 17% der Patientinnen musste auf Grund vorzeitiger, unstillbarer Wehentätigkeit eine sekundäre Sectio caesarea durchgeführt werden und zwei Frauen wurden spontan entbunden. Mit einer Transmissionsrate bei der primären Sectio caesarea von 2,8% im Vergleich zu 6,7% bei der sekundären Sectio caesarea können wir den protektiven Effekt der elektiven Schnittentbindung am wehenfreien Uterus bestätigen. Mit einer Transmissionsrate von 5,3% bei Entbindungen ≤ 35. Schwangerschaftswoche gegenüber 2,9% bei Entbindungen nach der 35. Schwangerschaftswoche können wir in Übereinstimmung mit anderen Autoren bestätigen, dass Frühgeburtlichkeit mit einer höheren Transmissionsrate assoziiert ist. Aus diesem Grund betonen wir die Wichtigkeit einer regelmäßigen Schwangerschaftsvorsorge in Kooperation mit einem HIV-Zentrum. Bei 26% unserer Patientinnen traten postoperativ Komplikationen im Wochenbett auf. Zwar zeigte sich entgegen bisherigen Erkenntnissen mit p= 0,075 keine signifikanten Unterschiede gegenüber den Müttern aus dem hessischen Vergleichskollektiv, doch traten signifikant häufiger Fieber (p= 0,001) und Wundheilungsstörungen (p= 0,0001) bei unseren Wöchnerinnen auf. Von den 89 untersuchten Kindern, wurden drei (3,4%) vertikal infiziert. In allen drei Fällen kam es zu Komplikationen in der Schwangerschaft und es mangelte an Compliance bei den Müttern, so dass keine optimalen Bedingungen vorlagen, um alle gegebenen Interventionsmöglichkeiten anwenden zu können. Anhand unserer Daten konnte die Reduktion der materno-fetalen Transmission durch die kombinierte Anwendung von der antiretroviralen Therapie, der elektiven Schnittentbindung und unter striktem Stillverzicht belegt werden. Der additive Effekt wurde durch die Anwendung dieser Interventionsstrategien bestätigt und ließ die Transmissionsrate erfolgreich von 20% auf 3,4% sinken.
Die transcraniale Magnetstimulation (TMS) ist eine relativ neue Methode zur nicht invasiven und schmerzfreien Reizung des motorischen Cortex (M1). Mittels der TMS wurden die Reorganisationsmechanismen des kindlichen Zentralnervensystems nach einseitiger fokaler Schädigung des Motorcortex untersucht. Besondere Aufmerksamkeit galt den spezifischen Reorganisationsmechanismen in Abhängigkeit vom Zeitpunkt der Schädigung. Es wurden Kinder mit einer fokalen Läsion des motorischen Systems während des Vorschulalters/ frühen Schulalters und Kinder mit einer Schädigung während der Perinatalperiode untersucht. Allen Kindern war eine initial schwere neurologische Beeinträchtigung mit einer aktuell nur noch bestehenden diskreten oder latenten pathologisch-neurologischen Symptomatik gemein. Die nachgewiesenen Reorganisationsformen wurden des weiteren mit Literaturdaten von Probanden mit einer innerhalb des Erwachsenenalters erlittenen fokalen motorischen Läsion verglichen. Folgende Parameter wurden untersucht: kontralateral motorisch evozierte Potentiale (coMEP) mit Latenz, zentral motorische Überleitungszeit (ZML) und motorische Schwelle (MS), ipsilaterale motorisch evozierte Potentiale (ipsiMEP) mit Latenz und ipsilaterale silent period (ISP). Mittels dieser Studie konnte aufgezeigt werden, dass Kinder mit einer Schädigung während des Vorschulalters/ frühen Schulalters Reorganisationsformen besitzen, die charakterisiert sind durch eine erniedrigte MS, als Zeichen einer erhöhten Exzitabilität des geschädigten motorischen Kortex und durch eine über der paretischen Extremität fehlende ISP im Sinne einer verminderten inhibitorischen Wirkung des intakten auf den affektierten Cortex. Bei den Kindern mit einer Schädigung während der Perinatalperiode konnte einerseits, wie bei den Kindern mit einer Schädigung während des Vorschulalters/ frühen Schulalters die fehlende ISP über der paretischen Extremität, als Teil des Reorganisationsmechanismus nachgewiesen werden. Andererseits unter scheidet sich die funktionelle Reorganisation der Kinder mit einer Schädigung während der Perinatalperiode dahingegen, dass, als Konsequenz einer innerhalb der vulnerablen Phase erworbenen Schädigung, die MS erhöht, d.h. die Exzitabilität des affektierten Motorcortex erniedrigt ist. Zusätzlich konnten Reorganisationsmechanismen in Form von „cortical map plasticity“ und „neuronal plasticity“ mit verzögerten ipsiMEPs über der paretischen Extremität nachgewiesen werden. Diese verzögerten ipsilateralen Projektionen von der intakten Hemisphäre zur beeinträchtigten Extremität besitzen wertvolle Aufgaben in der Wiederherstellung der motorischen Funktionen und waren in dieser Form nur bei Kindern mit Läsionen in der Perinatalperiode evozierbar. Insgesamt konnte bei beiden Kindergruppen eine wesentliche Verbesserung der initial stark beeinträchtigten neurologischen Funktionen nachgewiesen werden. Im Gegensatz hierzu stehen die Defektzustände nach cerebralen Läsionen im Erwachsenenalter. Bei schlechtem neurologischen „outcome“ ist die motorische Schwelle über der defekten Hemisphäre erhöht und somit die Exzitabilität stark vermindert. Des weitern sind nur die mit einer schlechten funktionellen Reorganisation verbundenen schnellen ipsiMEPs bei den Patienten mit Läsionen im Erwachsenenalter, gegenüber den langsamen ipsiMEPs mit einer hervorragenden neurologischen Wiederherstellung bei den perinatal geschädigten Kindern, über der paretischen Extremität abzuleiten. Somit konnten altersspezifische, vom Schädigungszeitpunkt abhängige Reorganisationsmechanismen mit unterschiedlicher neurologischer Wiederherstellung nachgewiesen werden. Von besonderer Bedeutung sind die Ergebnisse dieser Studie, dass nicht nur zwischen den Reorganisationsformen des adulten und kindlichen Gehirns, sondern auch zwischen den Reorganisationsmechanismen eines Kindes im Vorschulalter und des, sich in der vulnerablen Phase befindlichen, unreifen perinatalen Gehirns zu differenzieren ist.
"Ein Bild sagt mehr als tausend Worte" lautet eine geflügelte Redewendung im Deutschen. Ob dies auch für die ethnografische Illustration der vor-wissenschaftlichen Zeit gilt, wird im Folgenden zu klären sein. Die vorliegende Arbeit "Verflochtene Ansichten" hat es sich zur Aufgabe gemacht, Inhalt, Form und Bedeutung ethnografischer Bilddokumente über Amerika vor 1780 darzulegen sowie ihren Beitrag für die Wissenschaft "Ethnologie" und ihre Illustrationspraxis festzustellen. Wenn im Folgenden die Rolle und Funktion von Bilddokumenten untersucht wird, geschieht dies in Wechselbeziehung mit Schrift- und Objektquellen. Es geht um das Verhältnis von Bild, Text und Gegenstand als drei unterschiedlichen Quellen historisch-ethnografischer Erkenntnis, wobei für die vorliegende Studie zwei Fragen von zentraler Bedeutung sind: Was ist einem Bild zu entnehmen, das nicht bereits von Zeugnissen verbaler Art bekannt ist? Was vermag ein Bild zu vermitteln, das nicht schon in Form von Realien bzw. Ethnografica überliefert ist? Zwei Fragen, die schlicht und banal klingen, doch deren Beantwortung für das hier zu untersuchende Bildmaterial nicht unproblematisch ist.
Die perkutane interstitielle Thermoablation von malignen Lebertumoren stellt ein neues Therapiekonzept zur palliativen und auch potenziell kurativen Tumordestruktion dar. Dabei müssen die Therapiekonzepte differenziert werden nach der zugrunde liegenden Histologie: Beim hepatozellulären Karzinom kann ein lokal ablatives Verfahren alternativ oder in Kombination mit der lokalen Alkoholinstillation (PEI) oder der transarteriellen Chemoembolisation (TACE) eingesetzt werden. Nach neuesten Studien erlauben lokale Verfahren wie die Radiofrequenzablation und die Lasertherapie (LITT) eine verlässliche lokale Tumorkontrolle beim HCC. Für eine erhebliche Patientenanzahl gestaltet sich bei kurativ reseziertem Primärtumor eine hepatische Metastasierung zum limitierenden Faktor. Diese hohe Inzidenz an hepatischen Filiae weist hauptsächlich die Gruppe der kolorektalen Primärtumoren aufgrund des speziellen Metastasierungsverhaltens auf. Bisher profitieren nur eine sehr geringe Anzahl der Betroffenen von der Möglichkeit der operativen Resektion solitärer Läsionen. Weit über die Hälfte der Patienten erleiden jedoch wieder intrahepatische Tumorrezidive. Die systemische oder regionale Chemotherapie konnte bisher im Vergleich zu resezierten Patienten nur geringe Verbesserungen der Überlebenszeiten bei oftmals erheblichen Einschränkungen der Lebensqualität erzielen. Für Lebermetastasen kann heute der Einsatz der MR-gesteuerten LITT bei lokal beschränktem Leberbefall ohne extrahepatische Manifestationen klinisch begründet werden. Mit der laserinduzierten Thermotherapie (LITT), als ein minimal invasives Verfahren, ist es möglich durch einen perkutanen Zugangsweg gezielt Tumoren in soliden parenchymatösen Organen zu zerstören. Dabei kann das umgebende Gewebe maximal geschont und der Eingriff in lokaler Anästhesie ambulant durchgeführt werden. Voraussetzung für den optimalen Erfolg eines regionalen Verfahrens ist die genaue topografische Darstellung der erzielten Koagulationsnekrose während und nach der Intervention. Die Magnetresonanztomografie erweist sich dabei als unentbehrliches Instrument zur Überwachung und Steuerung der perkutanen LITT. Durch temperatursensitive T1-gewichtete Sequenzen und mittels optimierter Sequenzprotokolle zur Nachkontrolle der laserinduzierten Nekrosen und bei den dreimonatigen Kontroll-Untersuchungen hat sich gerade bei der Beurteilung von sehr kleinen Tumormanifestationen die Magnetresonanztomografie als das optimale Untersuchungsverfahren bewährt. An Nebenwirkungen traten lediglich nicht therapiebedürftige Pleuraergüsse und subkapsuläre Hämatome auf, was den Patienten schonenden, minimal invasiven Charakter des Verfahrens unterstreicht. Durch die Weiterentwicklung des gespülten Applikators und die Anwendung der Multiapplikationstechnik kann man nun auch größere Koagulationsnekrosen erreichen, und somit auch bei der Behandlung von größeren Metastasen einen ausreichenden Sicherheitssaum erreichen. Mit der MR-gesteuerten LITT wurde ein minimal invasives Therapieverfahren zur Erlangung einer lokalen Tumorkontrolle entwickelt, das in einer palliativen Situation, aber auch in vielen Fällen in einer kurativen Situation eine Therapieoption für Patienten mit Lebermetastasen verschiedenster Primärtumoren und Läsionen des hepatozellulären Karzinoms bietet.
FGF-2, a potent multifunctional and neurotrophic growth factor, is widely expressed in the brain and upregulated in cerebral ischemia. Previous studies have shown that intraventricularly or systemically administered FGF-2 reduces the size of cerebral infarcts. Whether endogenous FGF-2 is beneficial for the outcome of cerebral ischemia has not been investigated. We have used mice with a null mutation of the fgf2 gene to explore the relevance of endogenous FGF-2 in brain ischemia. Focal cerebral ischemia was produced by occlusion of the middle cerebral artery (MCAO). We found a 75% increase in infarct volume in fgf2 knock-out mice versus wild type littermates (P < 0.05). This difference in the extent of ischemic damage was observed after 24 h, and correlated with decreased viability in fgf2 mutant mice following MCA occlusion. Increased infarct volume in fgf2 null mice was associated with a loss of induction in hippocampal BDNF and trkB mRNA expression. These findings indicate that signaling through trkB may contribute to ameliorating brain damage following ischemia and that bdnf and trkB may be target genes of FGF-2. Together, our data provide the first evidence that endogenous FGF-2 is important in coping with ischemic brain damage suggesting fgf2 as one crucial target gene for new therapeutic strategies in brain ischemia.
Man muss kein Marxist sein, um anzuerkennen, dass Unternehmer in kapitalistischen Industriegesellschaften ein gesellschaftlich außerordentlich mächtiges Interesse verkörpern. Angesichts der gegenwärtig zu beobachtenden politischen Kräfteverhältnisse erscheint diese Machtposition so gefestigt wie lange nicht mehr. Die vorgeblichen Zwänge der Globalisierung und ein politisch hegemonialer Marktradikalismus haben die Durchsetzungsfähigkeit politischer Unternehmerstrategien weiter gestärkt. Im Rahmen der voranschreitenden Ökonomisierung des Politischen werden die Verwertungsbedingungen zum zentralen Maßstab politischer „Reformprojekte“, wie dies in der gegenwärtigen Arbeitsmarkt- und Sozialpolitik der Bundesregierung deutlich zu erkennen ist. Da es sich dabei jedoch nicht um einen automatischen Prozess handelt, sondern um politische Auseinandersetzungen, deren Ausgang prinzipiell ungewiss ist, bleibt erklärungsbedürftig, wie sich das Verhältnis von Unternehmern und Politik im Einzelnen gestaltet. Die grundlegende Frage lautet, wie sich in einem parlamentarisch-demokratischen System, in dem formal alle gesellschaftlichen Gruppen den gleichen Zugang zu politischen Entscheidungsprozessen besitzen, ökonomische in politische Macht „übersetzt“. Im Folgenden sollen einige Facetten dieser Frage diskutiert werden. Dabei wird erstens die Quantität der „sozialen Gruppe“ der Unternehmer in der Bundesrepublik Deutschland umrissen, zweitens wird ihre politische Durchsetzungsfähigkeit im System kollektiven Interessenhandelns erörtert und drittens wird, anhand einiger klassentheoretischer Überlegungen, das Verhältnis von Homogenität und Fragmentierung unternehmerischer Interessen thematisiert.
Taxation and tax policy reform appears on the political agenda in most advanced welfare states in Europe and North America. Of course studies of taxation and tax policy are nothing new and have existed ever since people have paid taxes. The current work is situated in the context of the future of the welfare state and the reinforced international economic and political integration referred to as "globalization." The purpose of this paper is to analyze how globalization is affecting tax policy in advanced welfare states. In comparing the evolution of tax policy in Canada with those in the United States, Germany and Sweden from 1960 to 1995, I will try to review the conventional antiglobalization thesis, i.e., that globalization leads to a "race to the bottom" in revenue and expenditures policies, or as others have called it, a "beggar the neighbour policy" (Tanzi and Bovenberg 1990, 187). ... Conclusion: The empirical data and theoretical models clearly show that globalization is one relatively minor factor among many that explain tax policy reforms. And even that limited influence is mediated by domestic political systems, institutions and constellations of actors. As the data has shown, the conventional globalization thesis of a race to the bottom is not borne out. Tax rates and tax revenues are still increasing, despite the ongoing trend toward international trade integration. Countervailing pressures like the high cost of welfare programs, different parties in government, strong labour unions, and institutional veto players counteract the pressure of globalization on tax policy. As for the future of taxation in Canada, it is more likely to be one of gradual evolution than radical change. Although the data don’t show any downward pressure on tax rates and tax revenues comparatively speaking, there are at least four key factors in Canada that are likely to put pressure on future tax rates, although regional political dynamics and the workings of fiscal federalism suggest that tax reductions will be a higher priority in some provinces than others (Hale 2002). First, neoliberalism will continue to shape fiscal and tax policy, including the role of the tax system in delivering social policies and programs in most parts of Canada. Second, governments that seek to define their own economic and social priorities rather than simply react to events beyond their borders will have to exercise centralized control over budgetary policies and spending levels if they hope to foster the economic growth needed to finance social services in the context of Canada’s changing demographics. Third, the ability of governments to combine the promotion of economic growth and higher living standards will be closely linked to their ability to develop a workable division of responsibilities among federal and provincial governments and with other national governments. Finally, the diffusion of new technologies will continue to transform national and regional economies while giving individuals greater opportunity to avoid government and tax regulations that run contrary to their perceived interests and values. This discussion of determinants that shape tax policy reform has shown that successful management of fiscal and tax policy requires a capacity to set priorities; adapt to changing circumstances; and build a consensus that enables competing economic, social, regional and ideological interests to identify their own well-being in the broader political and economic environment. Tax policy is shaped by many political, economic and social determinants. As Geoffrey Hale correctly concludes, "it should not be surprising if the tax system stubbornly refuses to confirm either economic theories or political ideologies, but reflects past decisions and the policy tradeoffs of the political process" (2002, 71). The notion of tax policy being driven by globalization and forces associated with globalization (both positive and negative) is simply not borne by the facts.
In der vorliegenden Studie werden die sozialpolitischen Reformen in den USA und Kanada während der 1990er Jahren in einer vergleichenden Perspektive analysiert. Dabei wird insbesondere die Rolle steuerpolitischer Instrumentarien in den Reformen thematisiert und der Frage nachgegangen, ob sich hier ein neuer Typ von Wohlfahrtsstaat herausbildet. Im ersten Teil des Papiers wird das in der vergleichenden Wohlfahrtsstaatsforschung etablierte Modell des liberalen Wohlfahrtsstaats skizziert, um vor diesem Hintergrund die Reformen in den USA und Kanada zu untersuchen und zu vergleichen. Anschließend wird in einer breiteren vergleichenden Perspektive die out-put-Leistung der beiden Wohlfahrtsstaaten analysiert. Al normative Kriterien hierbei gilt in erster Linie die Umverteilungsfunktion sozialpolitischer Instrumentarien, hier in erster Linie verstanden als Einkommensumverteilung.
Am Beginn des 21. Jahrhunderts wird der Zustand der US-Demokratie kontrovers diskutiert. Während manche Beobachter eine zu hohe Responsivität des politischen Systems gegenüber den Ansprüchen seiner Bürger entdeckt haben wollen und deshalb von demosclerosis und einer Hyperdemokratie sprechen, in welcher der Volkswille in einen unantastbaren, göttlichen Rang erhoben worden sei, kommen andere zu dem Schluss, dass die Gründerväter im Hinblick auf ihre handlungsanleitende Furcht vor einer »Tyrannei der Mehrheit« ganze Arbeit geleistet und ein nahezu unüberwindbares System von Vetopositionen geschaffen hätten, das Partikularinteressen strukturell bevorzuge und deshalb nur in Ausnahmesituationen die Mehrheitspräferenzen der Bürger in Politik umsetze. Kurzum: Die Furcht der Federalists vor einer »Mehrheitstyrannei« habe einer »Minderheitstyrannei« Tür und Tor geöffnet. Der Artikel versucht die Vereinigten Staaten in diesem Spannungsbogen zu verorten. Ziel ist es, die Qualität der amerikanischen Demokratie am Beginn des 21. Jahrhunderts zu problematisieren. Dabei werden auch die Entwicklungen nach dem 11. September berücksichtigt.
Despite a legal framework being in place for several years, the market share of qualified electronic signatures is disappointingly low. Mobile Signatures provide a new and promising opportunity for the deployment of an infrastructure for qualified electronic signatures. We analyzed two possible signing approaches (server based and client based signatures) and conclude that SIM-based signatures are the most secure and convenient solution. However, using the SIM-card as a secure signature creation device (SSCD) raises new challenges, because it would contain the user’s private key as well as the subscriber identification. Combining both functions in one card raises the question who will have the control over the keys and certificates. We propose a protocol called Certification on Demand (COD) that separates certification services from subscriber identification information and allows consumers to choose their appropriate certification services and service providers based on their needs. We also present some of the constraints that still have to be addressed before qualified mobile signatures are possible.
Despite a legal framework being in place for several years, the market share of qualified electronic signatures is disappointingly low. Mobile Signatures provide a new and promising opportunity for the deployment of an infrastructure for qualified electronic signatures. We that SIM-based signatures are the most secure and convenient solution. However, using the SIM-card as a secure signature creation device (SSCD) raises new challenges, because it would contain the user’s private key as well as the subscriber identification. Combining both functions in one card raises the question who will have the control over the keys and certificates. We propose a protocol called Certification on Demand (COD) that separates certification services from subscriber identification information and allows consumers to choose their appropriate certification services and service providers based on their needs. This infrastructure could be used to enable secure mobile brokerage services that can ommit the necessity of TAN lists and therefore allow a better integration of information and transaction services.
In der vorliegenden klinischen Studie wurde der Zusammenhang zwischen Hämatokrit und Mikrozirkulation bei Diabetikern mit und ohne Mikroangiopathie untersucht und in Relation gesetzt zu anderen Risikofaktoren, für die bereits eine Beeinflussung der Mikrozirkulation bei Diabetikern nachgewiesen wurde. Die Untersuchung erfolgte mittels Laser Doppler Fluxmetrie, Laser Doppler Scan und Laser Doppler Anemometrie. Als weiteres Ziel sollten diese erprobten Methoden bezüglich der Aussagekraft für die Fragestellung unserer Studie eingeordnet werden. Es zeigte sich, dass der Hämatokrit signifikant negativ mit der Ruhedurchblutung (für Mean DC: p<0,01, β = -0,411) der Hand und des Fußes (für Mean Flux: p<0,001, β=-0,531; für Mean DC: p<0,05, β= -0,359) korreliert. Dieser Einfluss lässt sich mit dem Laser Doppler Scan am Besten nachweisen. Eine signifikant positive Korrelation (p<0,05, β= 0,284) des Hämatokrits mit der Dauer der Hyperämie gemessen an der Hand besteht in der Laser Doppler Fluxmetrie, jedoch nicht in der Anemometrie. Die These, dass ein höherer Hämatokrit zu einer schlechteren Mikrozirku-lation beiträgt, wird durch eine höchst signifikante negative Korrelation der Zeit bis zum Erreichen der Maximalgeschwindigkeit mit dem Hämatokrit (p<0,001, β= -0,497) in Frage gestellt. Ob dieses Ergebnis tatsächlich neue Erkenntnisse bringt oder durch Begleitumstände beeinflusst wurde, sollte in weiteren Untersuchungen geklärt werden. Auch im Vergleich mit anderen Risikofaktoren findet sich der starke Einfluss des Hämatokrit vor allem auf die Ruhedurchblutung. Für die Dauer der Hyperämie in der Single Point Messung zeigt sich ebenfalls ein großer Einfluss von Laktatdehydrogenase (LDH) und Body Mass Index (BMI) (LDH: β= -0,311, BMI: β= -0,310, p<0,05). Unsere Ergebnisse stärken die Vermutung, dass multifaktorielle Ursachen für Änderungen der Mikrozirkulation verantwortlich sind. Der Hämatokrit spielt hierbei eine wichtige Rolle, mit der man sich weiterhin befassen und in größer angelegten Studien unter Ausschluss von Beeinflussung durch andere Variablen noch genauer untersuchen sollte. Bezüglich der beiden Messverfahren Anemometrie und Laser Doppler Fluxmetrie bleibt festzuhalten, dass es sich um ergänzende Methoden handelt. Der Laser Doppler Image Scan ist als Standardmethode für die Erfassung der Ruhedurchblutung anzusehen, während die Fluxmetrie und die Anemometrie beide verlässlich mit Provokationstests anzuwenden sind. Sie messen in verschiedenen Ebenen des Kapillarsystems und produzieren dadurch unterschiedliche Ergebnisse. Es konnte in der vorliegenden Studie nachgewiesen werden, dass ein deutlicher Einfluss des Hämatokrits auf die Mikrozirkulation besteht. Um aus unseren Ergebnissen klinische Konsequenzen für die Behandlung von Diabetikern zu ziehen, muss man sich vor allem der Frage des Zusammenhanges auf Höhe des nutritiven Kapillarsystems ausführlicher widmen und die Ursache der Veränderungen der Time to Peak in weiteren Studien abklären.
Chemically modified bases are frequently used to stabilize nucleic acids, to study the driving forces for nucleic acid structure formation and to tune DNA and RNA hybridization conditions. In particular, fluorobenzene and fluorobenzimidazole base analogues can act as universal bases able to pair with any natural base and to stabilize RNA duplex formation. Although these base analogues are compatible with an A-form RNA geometry, little is known about the influence on the fine structure and conformational dynamics of RNA. In the present study, nano-second molecular dynamics (MD) simulations have been performed to characterize the dynamics of RNA duplexes containing a central 1'-deoxy-1'-(2,4-difluorophenyl)-ß-D-ribofuranose base pair or opposite to an adenine base. For comparison, RNA with a central uridine:adenine pair and a 1'-deoxy-1'-(phenyl)-ß-D-ribofuranose opposite to an adenine was also investigated. The MD simulations indicate a stable overall A-form geometry for the RNAs with base analogues. However, the presence of the base analogues caused a locally enhanced mobility of the central bases inducing mainly base pair shear and opening motions. No stable ‘base-paired’ geometry was found for the base analogue pair or the base analogue:adenine pairs, which explains in part the universal base character of these analogues. Instead, the conformational fluctuations of the base analogues lead to an enhanced accessibility of the bases in the major and minor grooves of the helix compared with a regular base pair.
Installment Optionen
(2004)
Die vorliegende Arbeit beschäftigt sich im Wesentlichen mit Installment Optionen und deren Bewertung und Hedgemöglichkeiten. Installment Optionen werden vor allem im internationalen Treasurymanagement eingesetzt und dienen der Absicherung von Wechselkursrisiken. Die Besonderheit besteht darin, daß ein Konzern die Optionsprämie über mehrere Zeitpunkte aufteilen kann, zu denen er jeweils entscheidet, ob die Absicherung überhaupt noch benötigt wird. Dies könnte unter Umständen nicht mehr der Fall sein, wenn das zugrunde liegende internationale Geschäft des Konzerns wider Erwarten nicht zustande gekommen ist. Der exakte Wert einer Installment Option im Black-Scholes Modell besteht aus einem Ausdruck von Mehrfachintegralen, wohingegen die Anwendung verschiedener Bewertungsmethoden auf diesen approximierte Werte liefert. Die Untersuchung des Verhaltens mehrerer bekannter Methoden und die Entwicklung einer neuen Bewertungsformel für Installment Option ist Inhalt dieser Arbeit. Weiterhin wird die kontinuierliche Version der Installment Option betrachtet und für diese ein neuer Hedge bewiesen.
Das Thema der vorliegenden Arbeit war die molekulargenetische Charakterisierung der Funktion der Glukosesensoren Snf3 und Rgt2 in der Hefe S. cerevisiae. Snf3 und Rgt2 gehören zur Familie der Hexosetransporter. Sie unterscheiden sich von ihnen jedoch in ihrer Funktion als Glukosesensoren wie auch durch ihre ungewöhnlich langen Cterminalen Domänen. Snf3 und Rgt2 sind integrale Membranproteine, die als Reaktion auf extrazelluläre Glukose Signale auslösen, die zur Expression bestimmter Hexosetransporter führt. Einige Komponenten, die an der Signaltranduktion beteiligt sind, wurden bereits identifiziert. Jedoch ist der genaue Mechanismus, der zur Expression der Hexostransporter führt, noch nicht vollständig aufgeklärt. Im ersten Teil dieser Arbeit wurden die Proteine Snf3, Rgt2, Mth1, Std1 und Rgt1 auf direkte Interaktionen untereinander getestet, um Einblicke in den molekularen Mechanismus der Signaltransduktion zu erhalten. Desweiteren sollte festgestellt werden, ob die Protein-Wechselwirkungen von der C-Quelle abhängig sind. Es konnte gezeigt werden, dass zwischen den Membranproteinen Rgt2 bzw. Snf3 und den löslichen Proteinen Mth1 bzw. Std1 Interaktionen in Abhängigkeit von Glukose stattfanden. Diese Ergebnisse unterstützen das von Moriya und Johnston aufgestellte, gegenwärtige Modell für eine glukoseinduzierte HXT Genexpression. Im zweiten Teil dieser Arbeit wurde geprüft, ob sich aus dem Glukosesensor Snf3 durch eine Aminosäuresubstitution ein bifunktionaler Sensor für Glukose und Galaktose erzeugen läßt. Dazu wurden die für den Galaktosetransport verantwortlichen Aminosäuren in den homologen Positionen von Snf3 ausgetauscht. Die Bestimmungen der Regulation des Snf3-kontrollierten HXT7 Promotors ergaben, dass das mutierte Snf3 Protein, wie das Wildtyp-Snf3 Protein, eine normale Glukosesensorfunktion ausübt aber keine Galaktosesensorfunktion vorzeigt.
Aus der Notwendigkeit heraus, "nachhaltig die Funktionen des Bodens zu sichern" (§1 BBodSchG), und damit auch Bodenschutz vorsorgend in Planungsprozesse zu integrieren, wurde ein neues Bodenschutzkonzept entwickelt. Es basiert auf einer differenzierten, aber gleichzeitig nachvollziehbaren Bodenbewertung. Das Problem bei der Bodenbewertung ist, dass etwas bewertet werden soll, für das - je nach Fragestellung - immer wieder neue Ziele definiert werden müssen. Deshalb liegt der Bodenbewertung ein Zielsystem zu Grunde, das Schutzziele klar festlegt und mit Hilfe dessen die Bodenbewertung nachvollziehbar wird. Für das Bodenschutzkonzept werden aus der Vielzahl möglicher Kriterien wichtige vorgestellt, aus denen die - bezogen auf dieses Zielsystem - wesentlichen ausgewählt werden können. Um aussagekräftige Daten für diese Kriterien zu erhalten stützt sich die Bodenbewertung auf bodenkundliche sowie landschaftsgenetisch-geomorphologische Zusammenhänge. Die eigentliche Bewertung erfolgt dann in drei Schritten: zuerst eine Einzelbewertung, dann zusammengefasst nach den Bodenfunktionen Lebensraumfunktion, Regelungsfunktion, Informationsfunktion, dem Eigenwert des Bodens (Schutzwürdigkeit) sowie der Empfindlichkeit und Gefährdung (Schutzbedürftigkeit). Im dritten Schritt werden diese Bewertungen dann zu einer gewichteten, verbal-argumentativen Gesamtbewertung der Schutzwürdigkeit und Schutzbedürftigkeit zusammengefasst. Mit Hilfe des Bewertungsverfahrens werden auch Zielkonflikte zwischen den unterschiedlichen Schutzgütern offengelegt. Schutzmaßnahmen ergeben sich dann stringent aus den vorher im Zielsystem gesetzten Prämissen, d.h., Ziele und Maßnahmen sind begründbar gewählt, stehen in einem ökologischen Gesamtzusammenhang und lassen sich sehr gut nachvollziehen. Das hier vorgestellte, neue Bodenschutzkonzept ist für verschiedene Planungsebenen geeignet. Es ist in unterschiedlichen Naturräumen anwendbar, kann verschiedene Schutzziele mit Hilfe des Zielsystems bestimmen und so z.B. die Naturraumvielfalt in einem Gebiet ebenso berücksichtigen wie die Meinungsvielfalt, was unter vorsorgendem Bodenschutz zu verstehen sei.
Oskar Fischingers malerisches Oeuvre wurzelt theoretisch, ästhetisch und formal tief in der Kunstentwicklung des Deutschlands der zwanziger Jahre. Sein Ausdrucksvokabular, das von geometrischen bis zu amorphen Formen reicht, seine wechselnden, gleichermaßen zentral und flächenübergreifenden Bildgefüge mit reduzierten Inhalten oder reicher Formenfülle, sein Wandeln zwischen Abstraktion und Gegenständlichkeit, verhindert die Ausprägung einer einheitlichen Handschrift und damit auch einer eindeutigen chronologischen Entwicklung. Obwohl ästhetisch und formal den konstruktiven Tendenzen des Bauhaus und dessen Vertreter Kandinsky nahestehend sowie der lyrischen Abstraktion und Klee, wurde Fisichinger auch von östlichen Religionen, dem Mystizismus, der Astrologie, der Astronomie und der Musik geprägt. Dies manifestiert sich bisweilen in Form verschlüsselter Bildinhalte. Sein philosophischer Hintergrund bestärkt ihn in der Verwendung von abstrakten Formen als Träger metaphysischer Botschaften und bewahrt seine Bilder gleichzeitig vor formalistischer Strenge und Dekorativität. Trotzdem scheinen bestimmte Charakteristika in seinem Werk vorhanden: die Neigung des Ingenieurs zu regelmäßigen Formen und komplexem Detailwerk, das musikalische Gefühl für rhythmische Sequenzen, ein filmisches Anliegen für Bewegung und Tiefe, ein mystisches Gefühl für die anderen Dimensionen jenseits des Sichtbaren und Wirklichen. Fischingers grenzüberschreitendes Streben nach einer Befreiung der Malerei aus ihrer tradierten Form, welches sich in Projekten wie Motion Painting No.1 oder Stereo-Film manifestierte, entsprang dem Verlangen nach einem Kunstwerk, das mehrere Kunstgattungen in sich vereinigt, ein Gedanke, der sich zwingend aus seiner Auseinandersetzung mit den künstlerischen Betrachtungsweisen und Entwicklungen am Ende des 19. und zu Beginn des 20. Jahrhunderts ergab sowie aus seiner Beschäftigung mit synästhetischen Prozessen und der Filmarbeit. Diese Zielsetzung Fischingers zusammen mit motivischen Verwandtschaften zwischen seinen Filmen und der Malerei, die sich z.B. in der gemeinsamen Verwendung geometrischer Motive oder anderer gestalterischer Elemente wie der Aneinanderreihung von Farbbahnen (Abb. 26 – 28) zeigt, führten noch bis Anfang der siebziger Jahre zu einer Ignoranz seiner Malerei als eigenständige künstlerische Ausdrucksform. Noch 1970 wurde in einer Fischinger-Retrospektive im Long Beach Museum of Art in Kalifornien der Versuch unternommen, seine Gemälde direkt einzelnen Sequenzen seiner Filme zuzuordnen. Die Kunstkritik reagierte entsprechend abweisend auf die damalige Ausstellung. Der Journalist William Wilson schreibt „....half the time they don´t work as paintings because Fischinger evidently conceived of them as films.“ Erst einige Jahre später begannen sich Tendenzen zu einer mehrere Sparten übergreifenden Kunst durchzusetzen. Binnenkünstlerische Grenzen werden aufgehoben und Ausdehnungen in die Bereiche Video, Umraum, Objekt, Licht und Kinetik fanden statt. In diesem Zusammenhang ist Fischinger nicht nur einer der Wegbereiter der Op Art und der Holographie. Sein 1950 entwickelter Lumigraph, ein Lightshowgerät für den Hausgebrauch könnte ebenfalls als eine Vorform der Neon- und Laserkunst betrachtet werden. Trotzdem haben die Vergleiche mit den Künstlern Kandinsky, Klee und Mondrian gezeigt, dass Fischingers Malerei theoretisch, ästhetisch und formal zutiefst in der modernen Kunstentwicklung im Deutschland der zwanziger und dreißiger Jahre wurzelt. Die Betonung des Gleichgewichts von Intuition und Methode (Kap. 6.4.), die Auseinandersetzung mit den geometrischen Grundformen des Kreises, Quadrates, des Dreiecks und ihren farblichen Korrelationen (Kap. 6.4.), die Verwendung von geometrischem oder gegenständlich symbolischem Ausdrucksvokabular zur Darstellung spiritueller Inhalte (Kap. 7.3.), die Auseinandersetzung mit den synästhetischen Zusammenhängen von Farbe und Musik (Kap 7.3.) und der Assymetrie als Grundlage für das formale Gleichgewicht der Bildkräfte (Kap. 7.7.), dies sind Themen, mit denen sich Fischinger zwischen 1936 und 1967 sowohl auf der Basis von kunsttheoretischen Schriften als auch in seiner Malerei intensiv auseinandergesetzt hat. Sein Festhalten an den formal und stilistisch in den dreißiger Jahren entwickelten Gestaltungsmitteln und seine Verinnerlichung von Kunsttheorien der zwanziger Jahre könnte man zusammen mit seinem Desinteresse am internationalen Kunstgeschehen und an der angelitanischen Kunstszene als Ausdruck mangelnder geistiger Flexibilität und Anpassungsfähigkeit und damit als Akkulturationsproblem auffassen. Es könnte jedoch auch als Ausdruck einer konsequenten Umsetzung seiner künstlerischen Prinzipien verstanden werden. Die Beschreibung der Innenwelten stellt sich in diesem Zusammenhang als unabhängig von den Geschehnissen der Außenwelt und modischen Kunsttendenzen dar. Sie bedient sich eines abstrakten Zeichenvokabulars, das als universelles sprachliches Mittel keinem zeitlichen Wandel unterliegt. Die abstrakte Sprache, so wie sie Fischinger, Klee oder Kandinsky verstanden, war darüber hinaus keine Sprache der Zugehörigkeit zu einer bestimmten Gruppe oder Anschauung. So erklärt sich auch der mangelnde amerikanische Einfluss auf das malerische Werk Fischingers. Gemeinsamkeiten zwischen ihm und der kalifornischen Kunstszene der vierziger und fünfziger Jahre zeigen sich nur in dem Interesse an seriellen Strukturen und an den Entwicklungen der Monochromen und Meditativen Malerei. Wenn auch der Maler Fischinger aufgrund seines frühen Weggangs in seiner Heimat ein Unbekannter geblieben ist, so findet sein Werk in den Vereinigten Staaten zunehmende Anerkennung. In jüngster Zeit sind seine Gemälde in zahlreichen Ausstellungen vertreten, darunter 1993 in der in Washington eröffneten Wanderausstellung "Thema und Improvisation: Kandinsky und die amerikanische Avantgarde". Diese Popularität verdankt er wesentlich der Rückbesinnung auf ein bisher vernachlässigtes Kapitel amerikanischer Kunstgeschichte - der kalifornischen Malerei der vierziger Jahre. Fischinger zählt heute neben Lorser Feitelson, Helen Lundeberg, Peter Krasnow, Knud Merrild und Hans Burkhardt zu einem der wichtigsten Vertreter der südkalifornischen Malerei. Diese zeichnet sich im Vergleich zur Kunstmetropole New York jedoch mehr durch eine reiche Vielfalt stilistischer Ausprägungen und durch die Wahrung künstlerischer Individualität aus als durch avantgardistische Bestrebungen und einheitliches Stilwollen. 1992 stellte der Kurator des Washington Museum of Art anläßlich der Ausstellung "Turning the Tide" fest: "Fischinger is just now beginning to receive the attention he deserves beyond film critics and historians, recognition that ironically may have been delayed by his identification with art cinema."
Entmachtete Gegenstände? : Zur Kommerzialisierung sakraler Masken bei den Piaroa in Venezuela
(2004)
Der Begriff Gruppendynamik ist überbestimmt. Er kann erstens die psychosozialen Prozesse meinen, die Gruppen die Erfüllung ihrer Aufgabe schwer machen. Zweitens bezeichnet Gruppendynamik eine vorwiegend sozialpsychologische Forschungsrichtung, die sich mit der Untersuchung von Gruppen und ihrer Eigengesetzlichkeit befaßt. Und drittens hat sich unter dem Namen Angewandte Gruppendynamik eine Interventionspraxis herausgebildet, deren Ziel die methodische Beeinflussung der gruppendynamischen Phänomene und Prozesse ist. Diese Interventionspraxis ist der Gegenstand dieser Arbeit. Wie und warum es zu einer Trennung von Gruppendynamik als akademischer Forschungsrichtung und Gruppendynamik als Interventionspraxis kam, obwohl sie sich mit denselben Phänomenen befassen, ist selbst Teil des zu Untersuchenden. Gruppendynamik als institutionalisierte Praxis besteht in Deutschland seit mehr als 30 Jahren. Das erste deutsche gruppendynamische Laboratorium fand im Geburtsjahr des Autors, 1963, statt. Dazwischen hat Gruppendynamik zahlreiche Metamorphosen durchgemacht. Von einer emanzipatorischen Methode der „Neufundierung von Autorität“ in den 70er Jahren wandelte sie sich zu einer Schlüsselqualifikation für Organisationsberater in der 80ern. Heute ist sie zwischen Therapie, Supervision und Beratung angesiedelt und nur schwer als eigenständige Methode erkennbar. Gruppendynamik ist zu einem „historischen Begriff“ geworden und für einen solchen gilt Max Webers Einsicht, daß man ihn nicht nach dem Schema: genus proximum, differentia specifica definieren kann, „sondern er muß aus seinen einzelnen der geschichtlichen Wirklichkeit zu entnehmenden Bestandteilen allmählich komponiert werden. Die endgültige begriffliche Fassung kann daher nicht am Anfang, sondern muß am Schluß der Untersuchung stehen.“ Diese Arbeit beginnt deshalb nicht mit einer Definition von Gruppe, Gruppendynamik und gruppendynamischer Praxis, sondern geht von einigen wenigen Zentralkonzepten aus, die bis heute zum normativen Kernbestand der angewandten Gruppendynamik gehören und versucht mit deren Hilfe, die Besonderheit gruppendynamischer Praxis freizulegen. Laboratorium, Trainingsgruppe, Hier und Jetzt-Prinzip sowie Minimalstrukturierung bilden zusammen den strukturellen Rahmen gruppendynamischer Praxis: den gruppendynamischen Raum. In ihm sind die Teilnehmer mit dem gruppendynamischen Strukturproblem konfrontiert: Zugehörigkeit, Macht und Intimität kollektiv zu gestalten und zu erforschen. Die Rekonstruktion von gruppendynamischem Raum und gruppendynamischem Strukturproblem ist Inhalt von Teil I dieser Arbeit. In Teil II wird danach gefragt, welche soziale und affektive Dynamik das gruppendynamische Strukturproblem induziert. Diese Dynamik wird in zweifacher Perspektive untersucht: im Blick auf das soziale Netzwerk Gruppe wird Gruppendynamik als Vergemeinschaftungsprozeß interpretiert, im Blick auf die Individuen als Übertragungsgeschehen. Der sozialisationstheoretische Rekurs auf die Dynamik der Primärgruppe Familie und der präadoleszenten Peer-group kann zeigen, daß das gruppendynamische Strukturproblem universelle und elementare sozialisatorische Konflikte hervorruft. Teil III greift die ungelösten Fragen von Teil I auf und stellt die spannungsvolle Geschichte der Gruppendynamik von Deutschland nach Amerika und zurück dar. Gruppendynamik, entstanden aus einem Junktim von Forschen und Verändern, hat auf ihrem Weg dieses Junktim aufgelöst und die beiden auseinander gebrochenen Hälften jeweils an die akademische Kleingruppenforschung und an die angewandte Gruppendynamik delegiert. Das hat der angewandten Gruppendynamik eine hohe Anschlußfähigkeit an die Bedürfnisse des Selbsterfahrungs- und Fortbildungsmarktes sowie der Organisationsberatung verschafft. Die Rückseite dieses Geschehens bildet eine in den entsprechenden Fachpublikationen regelmäßig beklagte Theoriestagnation. Die historischen Exkurse können bei der Frage weiterhelfen, wie sich die Besonderheit von Gruppendynamik im Dreieck von Forschen, Erziehen und Heilen strukturell bestimmen läßt. In dieser Arbeit wird der Versuch unternommen, gruppendynamische Praxis konsequent als Forschungspraxis zu deuten und von allen edukativen und therapeutischen Methoden abzugrenzen. Können die Teile I und II zeigen, daß das gruppendynamische Strukturproblem die Teilnehmer in einen übertragungsreichen Vergemeinschaftungsprozeß führt, können die Fallstudien in Teil IV zeigen, wie dies geschieht und wie Gruppen kollektiv unter Begleitung der Trainer diese Aufgabe gestalten. Material der Fallstudien sind Trainingsgruppen aus gruppendynamischen Fortbildungsveranstaltungen, die von den entsprechenden Dachverbänden der deutschen, schweizer und österreichischen Gruppendynamiker ausgeschrieben wurden. Diese Fallstudien können also relativ viel über die Prozesse in T-Gruppen sagen und wenig über das gruppendynamische Geschehen in Großgruppen. Doch da eine T-Gruppe, in der Regel bestehend aus einem Dutzend Teilnehmer und einem Trainerpaar, den normativen Kern der meisten gruppendynamischen Veranstaltungen bildet, läßt sich durch deren Analyse Wesentliches über gruppendynamische Praxis herausfinden, auch wenn die Intergruppen- und Großgruppendynamik ein wichtiger Bestandteil dabei ist. Mit der Methode der ojektiven Hermeneutik werden zwei Trainingsgruppen ausführlich analysiert. Die erste Gruppe geht über fünf Sitzungen, die zweite über zehn Sitzungen. Wird am Material dieser Gruppen der gruppendynamische Prozeß untersucht, so beleuchten die vier Fallvignetten jeweils einzelne Facetten gruppendynamischer Praxis. Die Ergebnisse dieser Fallstudien dienen dann im Teil V dazu, den gruppendynamischen Prozeß in seiner elementaren Dynamik und in seinem Lernpotential zu beleuchten. Die Teile I bis III rekonstruieren gruppendynamische Praxis idealtypisch, sie fragen also nicht danach, welche verschiedenen Formen und Interpretationen von Gruppendynamik sich historisch herausgebildet haben, sondern sie bilden einen Idealtypus. Nun ist die Empirie keine Kollektion von Idealtypen und zur Abbildung der Gruppendynamik in ihrer polypragmatischen Vielgestaltigkeit taugt eine idealtypische Rekonstruktion wenig. Der Zweck einer Idealtypenbildung besteht vielmehr darin, einen Begriff aus der Sache selbst zu entwickeln, an dem die Sache dann gemessen werden kann. Idealtypenbildung geht von der Einsicht aus, daß eine Theorie ihrem Gegenstand nur angemessen ist, wenn sie aus ihm entwickelt worden ist, deshalb gehen Theoriebildung und Fallrekonstruktion bei der Idealtypenbildung parallel einher. In der akribischen Rekonstruktion eines Einzelfalles in seiner Besonderheit soll also die Logik des Falles ineins mit der Logik der Gattung freigelegt werden. Das Ziel eines solchen Verfahrens besteht darin, weder die Fallanalysen zur Illustration vorgegebener Theorie verkommen zu lassen, noch theorielos einen Fall ideographisch abzubilden, ohne in ihm die individuelle Allgemeinheit des Falls zum Vorschein zu bringen. Ob dies gelang, kann nur die Evidenz der in Teil IV dargestellten Fallstudien entscheiden. Die hier gewählte Darstellungsform der Trennung von idealtypischer Rekonstruktion und Fallrekonstruktion, spiegelt den realen Forschungsverlauf nicht wider. Im Forschungsprozeß war die Idealtypenbildung aufs engste verwoben mit der sequenzanalytischen Fallrekonstruktion und es haben sich in ihm detaillierte Sequenzanalysen, Exkurse und Modellbildung ohne Systematik abgewechselt. Wollte man den Forschungsverlauf in seiner Sukzession darstellen, würde dies die Lesbarkeit der Analysen immens erschweren. Deshalb wurde aus Darstellungsgründen idealtypische Rekonstruktion und Fallrekonstruktion getrennt mit dem Preis, daß die Modelle und theoretischen Hintergrundsannahmen, von denen die Analyse ausgeht, nicht in ihrer Entwicklung am konkreten Material mitdokumentiert werden. Dies ist ein schmerzlicher Kompromiß, der nur mit dem Gewinn an Systematik und Stringenz der Darstellung aufgewogen werden kann. Gruppen und damit auch deren Dynamik waren und sind eines der zentralen Themen der Soziologie. Doch hat die Soziologie deren Erforschung immer mehr an die Sozialpsychologie abgetreten. Diese Arbeit versucht, die Gruppendynamik ein kleines Stück für die Soziologie wiederzugewinnen. Gruppendynamik ein Vierteljahrhundert nach ihrer Hochblüte zu erforschen, bietet die Chance, sie jenseits aller ideologischen Auseinandersetzungen und ohne den auftrumpfenden Gestus, der die Aktionsforschung lange Zeit begleitete, als das in den Blick zu bekommen, was sie zuerst einmal ist: eine einzigartige Methode zur Erforschung und Veränderung von Gruppen. Die gesellschaftliche Abenddämmerung, in der sich Gruppendynamik manchmal zu finden glaubt, ist die beste Stunde für die Eule der Minerva.
Das Ende des Kalten Krieges hat die Sicherheitslandschaft in Europa nachhaltig verändert. Die Auflösung von mehr oder weniger festen politischen Strukturen und der sprunghafte Anstieg der Zahl außenpolitischer Akteure führten zu einer deutlichen Schwächung der politischen Stabilität in vielen postkommunistischen Ländern. Die neue Weltordnung übte einen erheblichen Druck auf die westeuropäischen Sicherheitsallianzen wie NATO und EU aus, neue Verfahren der Entscheidungsfindung und des Krisenmanagements zu entwickeln. War die Gefahr des großen Krieges dramatisch zurückgegangen, erweiterte sich das Spektrum potentieller Gewaltkonflikte zunächst umso stärker. Angesichts dieser Verschiebungen ist im europäischen Raum in den 1990-er Jahren die Einsicht gewachsen, dass Sicherheit und Stabilität in Europa immer stärker auf internationaler Kooperation beruhen. Der Gedanke der Kooperation ist sogar zu einem bestimmenden Merkmal der praktischen Umsetzung europäischer Sicherheitspolitik geworden (Czempiel 1998a: 13). ...
RDF is widely used in order to catalogue the chaos of data across the internet. But these descriptions must be stored, evaluated, analyzed and verified. This creates the need to search for an environment to realize these aspects and strengthen RDFs influence. InterSystems postrelational database Caché exposes many features that are similar to RDF and provide persistence with semantic part. Some models for relational databases exist but these lack features like object-oriented data-structures and multidimensional variables. The aim of this thesis is to develop an RDF model for Caché that saves RDF data in an object-oriented form. Furthermore an interface for importing RDF data will be presented and implemented.
Das Buch beschreibt die Nutzung türkischer populärer Musik und ihre Bedeutung für türkische Jugendliche in Deutschland. Es zeigt auf, dass die Nutzung türkischer Musik nicht die Ursache oder Folge einer Unfähigkeit oder eines Unwillens zur Integration ist, sondern vielmehr ein konstruktives Element innerhalb des individuellen Integrationsprozesses.
Das im Rahmen dieser Arbeit durchgeführte Experiment hatte zum Ziel Interferenzeffekte beim dissoziativen Ladungstransfer bei Molekülion-Atomstößen zu beobachten. Interferenzeffekte in Molekül-Atomstößen wurden von McGuire hervorgesagt und berechnet [4]. Diese Arbeit betrachtet ein ähnlichen Reaktionssystem. Die von ihm vorausgesagten Effekte wurden bestätigt. Das Experiment hat es ermöglicht, Interferenzen für alle Molekülorientierungen zu betrachten, womit man leicht Analogien zu zwei speziellen Fällen herstellen kann: mit der Molekülachse senkrecht zur Strahlrichtung entsteht eine Situation ähnlich einem Doppelspalt, bei dem die Kerne des Moleküls als Reaktionszentrum an Stelle der Spalte treten; mit der Molekülachse in Strahlrichtung entsteht eine Situation bei der Streuung an einem einzelnen Atom. In allem Molekülorientierungen erkennt man ein ringförmiges Minimum bei 1.6 a.u., wie es insbesondere bei der Beugung einem einzelnen Atom zu beobachten ist. Bei senkrechter Stellung der Molekülachse zur z-Achse überlagert durch die Streifen eines Doppelspaltes. Es war außerdem möglich den Endzustand der Teilchen zu bestimmen, so daß man sagen konnte, ob eine Teilchen angeregt aus der Reaktion hervorgegangen ist oder ob es über metastabile Zwischenzustände zerfallen ist. So ließ sich für den Impulsübertrag von 1.6 au eine Besonderheit feststellen: ein Minimum läßt sich nur im direkten Kanal ohne Anregung beobachten. Findet der Zerfall hingegen über metastabile Zwischenzustände ohne Anregung statt, so weist dieser Kanal bei etwa 1.6 au ein Maximum auf. Parallel zur Durchführung dieser Arbeit wurden erste Tests mit einem digitalen Oszillographen von Aquiris gemacht. Dieser speichert den Spannungsverlauf der Spannung an den Delaylineanoden. Peaks müssen dann schnell genug erkannt und ausgewertet werden. In der Offlineanalyse wären dann eng nebeneinander oder übereinanderliegende Peaks besser als solche zu erkennen. Diese würde die Totzeitproblematik, die sie durch die Dissoziation eines Moleküls senkrecht zur z-Achse entsteht, erheblich entschärfen.
Die vorliegende Diplomarbeit lässt sich dem Gebiet der Terahertz-Physik (THz-Physik) zuordnen, also dem Gebiet der Physik, das sich mit der Erzeugung und Detektion von Ferninfrarotstrahlung beschäftigt. THz-Strahlung stellt dabei die Verbindung zwischen den elektromagnetischen Mikrowellen und den Wellen des infraroten Frequenzbereiches dar. Damit umfasst der THz-Bereich Frequenzen von etwa 100 GHz bis zu 100 THz. Die Forschung, die sich mit diesem Frequenzbereich beschäftigt, ist mittlerweile stark differenziert. Dabei geht es auf der einen Seite um die Entwicklung neuer bzw. die Weiterentwicklung und Optimierung bestehender THz-Erzeugungs- und Detektionsverfahren, auf der anderen Seite geht es um die Frage nach den möglichen Anwendungsgebieten für die entwickelten THz-Techniken. Entwickelt werden sowohl gepulste wie auch Dauerstrich-THz-Systeme, die auf einer Vielzahl verschiedener physikalischer Emissionsprozesse basieren. Die Anwendungsseite der THz-Forschung umfasst Gebiete wie die Spektroskopie, d.h. die Materialcharakterisierung und -untersuchung, aber auch komplexe biomedizinische Untersuchungsverfahren, wie z.B. die Krebsdiagnostik in der Onkologie. In der Bandbreite der weltweiten THz-Aktivitäten befindet sich diese Arbeit sowohl im Bereich der Entwicklung von THz-Techniken als auch in dem eher anwendungsbezogenen Bereich: Zunächst werden im zweiten Kapitel die verwendeten THz-Techniken und Messaufbauten vorgestellt, ebenso wie deren Funktionsweisen und speziellen Eigenschaften. Das dritte Kapitel beschäftigt sich mit der experimentellen Untersuchung von großflächigen THz-Emittern in gepulsten Lasersystemen. Diese weisen gegenüber den häufig verwendeten punktförmigen THz-Emittern einige grundlegende Unterschiede auf. Diese Unterschiede sollen zunächst durch die in das Kapitel einführenden theoretischen Grundlagen herausgearbeitet und danach anhand eines elektrooptischen Emitters und eines elektrisch vorgespannten Halbleiteremitters überprüft werden. In den folgenden Kapiteln wendet sich der Fokus dann mehr der Anwendung von THz-Strahlung zu. Dazu finden im vierten Kapitel Überlegungen und Experimente zu der Charakterisierung von, zunächst anorganischen, mehrschichtigen Systemen auf der Basis von Halbleiterstrukturen statt, die mit einem Ausblick auf eine biomedizinische Anwendung der THz-Strahlung, bei der Untersuchung von Zähnen, abgeschlossen werden. Im fünften Kapitel soll ein Silizium-Paraffin-Gemisch auf seine Stoffigenschaften untersucht werden. Für dieses Gemisch lassen sich die Stoffeigenschaften im THz-Bereich mittels des Mischungsverhältnisses der beiden Ausgangsmaterialien anpassen. Mögliche Anwendungen für ein solches Material sind indexangepasste Füllungen von Zwischenräumen, um störende Reflexionen an den jeweiligen Grenzflächen zu vermeiden; so wie die Konstruktion von Antireflexionsschichten für THz-Optiken. Beide Anwendungen werden in Form von Experimenten vorgestellt. Abschließend werden alle Ergebnisse in einem Fazit zusammengefasst, und es erfolgt ein Ausblick auf weitere Untersuchungen.
Moderne Softwaresysteme gewinnen zunehmend an Komplexität und bestehen inzwischen aus einer für Menschen nicht mehr überschaubaren Menge an Quellcode-Zeilen. Die Problematik könnte damit zusammenhängen, dass Programmiersprachen als Sprachen linear orientiert sind. Es stellt sich die Frage, ob graphische Darstellungen besser geeignet wären. Durch das Hinzufügen einer zweiten Dimension könnten Vererbungshierarchien und vernetzte Zusammenhänge – wie beispielsweise Funktionsaufrufe – besser visualisiert und durch das Ausblenden von Implementierungsdetails auf einen Blick erfasst werden. In dieser Arbeit werden Möglichkeiten der Visualisierung untersucht, bei denen der Sourcecode graphisch dargestellt wird und bei denen eine Änderung in der graphischen Darstellung in einem veränderten Sourcecode resultiert. Die Kernfrage, die in dieser Arbeit untersucht werden soll, ist, ob graphisch orientierte Tools die Programmierung wesentlich beschleunigen können. Dabei wird hauptsächlich auf die Visualisierung der vernetzten Strukturen von Klassen und Methoden Wert gelegt sowie auf die automatische Generierung. Ohne eine Automatisierung muss zu viel Zeit investiert werden, um die Darstellung zu erzeugen und mit geänderten Code konsistent zu halten. Dabei werden bisherige Konzepte wie die graphische Modellierungssprache UML beschrieben und die Umsetzung in unterschiedlichen Programmen untersucht. Die Abbildung von UML-Diagrammen in Sourcecode und von Sourcecode in UMLDiagramme bereitet jedoch einige Probleme, da viele Konzepte von UML zu stark abstrahieren und eine Abbildung nicht eindeutig und teilweise nicht möglich ist. Aus diesem Grund wird aufbauend auf den vorhandenen Möglichkeiten ein neues Konzept entwickelt, das prototypisch implementiert wird. Dabei werden viele Elemente von UML genutzt und auf die gestellten Anforderungen angepasst, sodass eine automatische graphische Darstellung parallel zur Programmierung in Textform möglich ist.
Konzept und Implementierung eines Systems zur Visualisierung von Zelldifferenzierungssimulationen
(2004)
Ziel der vorliegenden Arbeit ist es, zunächst den Stand der Forschung auf dem Gebiet der Zelldifferenzierungssimulatoren und –visualisierungen zu ermitteln. Davon ausgehend wurde ein eigenes Konzept für ein Visualisierungssystem entwickelt. Es wurde in einer prototypischen Implementierung mit dem Titel D-VISION umgesetzt. Die Recherchearbeiten ergaben, dass in der Forschung bisher hauptsächlich biochemische Reaktions-Netzwerke, die mithilfe von Differentialgleichungen gelöst werden, für Zell-Simulationen benutzt werden. Der dabei verwendete Abstraktionsgrad der repräsentierten Zellen ist zu hoch, um die gestellten Anforderungen einer realistischen 3D-Darstellung der Zellen zu erfüllen. Die grundlegende Idee, die Zelldifferenzierung aufgrund ihrer Genexpression also der in den Zellen vorhandenen Substanzen zu beschreiben, wurde als Basis für das Konzept für D-VISION verwendet. Die Daten, die visualisiert werden sollen, sind die Zellen selbst, die Substanzen, die in der Zelle vorhanden sind, Substanzen an der Zellhülle und die Gene, die in einer Zelle aktiv sind. Die Visualisierung wird durch Darstellung von aufeinander folgenden Standbildern vorgenommen, in denen navigiert werden kann. Zellen werden in Form von Kugeln repräsentiert, die, um eine realistischere Ansicht zu erreichen, so deformiert werden, dass sich die Kugeloberflächen aneinander angleichen. Die Deformation bietet nicht nur in der Ansicht von außen ein natürliches Bild. Auch die Möglichkeit, ein Schnittbild durch den Zellhaufen zu erzeugen, ergibt durch die Deformation eine mit realen Mikroskopieaufnahmen vergleichbare Darstellung. Ein solches zweidimensionales Schnittbild kann durch Verschieben der Schnittebene eine stufenlose Fahrt durch die Schichten des simulierten Zellhaufens zeigen. Neben den Zellen selbst, liegt ein besonderes Augenmerk auf der Darstellung von Substanzkonzentrationen. Sie werden durch kleine Objekte (Tiny Cubes) dargestellt. Allerdings unterscheidet sich ihr Einsatz von der bisher verbreiteten Methode, volumetrische Daten durch Farbskalen zu repräsentieren. Sie geben die Stoffmengen allein durch ihre Anzahl wieder. Um Zusammenhänge mit der Zelldifferenzierung erkennbar zu machen, können bis zu drei verschiedene Stoffe gleichzeitig angezeigt werden. Der Benutzer hat die Möglichkeit, Regeln bezüglich des Zustandes von Zellen zu formulieren. Die so definierten Zellklassen, fassen Zellen gleichen Typs zusammen und ermöglichen so die Darstellung von Zelldifferenzierung. D-VISION wurde konzipiert, um auch mit Simulatoren zusammen zu arbeiten, die Grid Computing für ihre Berechnungen nutzen. Ein separater Datenaufbereiter soll die Simulationsdaten verwalten. Der entwickelte Prototyp ist flexibel genug, um auch mit einfacheren Simulatoren zusammenzuarbeiten. Auf welchem Weg die visualisierten Daten gewonnen werden, spielt keine Rolle. Auch reine Messwerte, können zu guten Bildern führen.
Die Darstellung photorealistischer Szenen durch Computer hat in Folge der Entwicklung immer effizienterer Algorithmen und leistungsfähigerer Hardware in den vergangenen Jahren gewaltige Fortschritte gemacht. Täuschend echt simulierte Spezialeffekte sind aus kaum einem Hollywood-Spielfilm mehr wegzudenken und sind zum Teil nur sehr schwierig als computergenerierte Bilder zu erkennen. Aufgrund der Komplexität von lebenden Organismen gibt es allerdings noch kein einwandfreies Verfahren, welches ein komplettes Lebewesen realistisch, sei es statisch oder in Bewegung, mit dem Computer simulieren kann. Im Bereich der Animation sind wirkungsvolle Resultate zu verzeichnen, da das Skelett eines Menschen oder Wirbeltieres durch geeignete Methoden simuliert und Bewegungen damit täuschend echt mit dem Computer nachgebildet werden können. Die Schwierigkeit, eine komplett realistische Visualisierung eines Lebewesens zu erreichen, liegt allerdings in der Darstellung weiterer Strukturen eines Organismus, die zwar nicht direkt sichtbar sind aber dennoch Einfluss auf die sichtbaren Bereiche haben. Bei diesen Strukturen handelt es sich um Muskel- und Fettgewebeschichten. Die Oberfläche von Figuren wird durch Muskeln sowohl in der Bewegung als auch in statischen Positionen deutlich sichtbar verändert. Dieser Effekt wird bisher bei der Visualisierung von Lebewesen nur unzureichend beachtet, was zu den aufgeführten nicht vollständig realistisch wirkenden Ergebnissen führt. Bei der Simulation von Muskeln wurden bis heute verschiedene Muskelmodelle entwickelt, die einen Muskel als Gesamtheit in Hinblick auf seine grundsätzlichen physikalischen Eigenschaften, wie z. B. Kraftentwicklung oder Kontraktionsgeschwindigkeit, sehr gut beschreiben. Viele Effekte des Muskels, die sich hauptsächlich auf einer tiefer liegenden Ebene abspielen, sind bis heute noch nicht erforscht, was folglich auch keine entsprechende Simulation auf dem Computer zulässt. Beschrieben werden die verschiedenen Muskeltypen (Skelett-, glatte und Herzmuskulatur) und Muskelformen (spindelförmige, einfach/doppelt gefiedert, etc.). Des weiteren wird auf die unterschiedlichen Muskelfasertypen (FTO, STO, usw.) mit ihren Eigenschaften und Funktionen eingegangen. Weitere Themen sind der strukturelle Aufbau eines Skelettmuskels, der Kontraktionsmechanismus und die Ansteuerung durch Nervenreize. Im Bereich Biomechanik, also der Forschung nach den physikalischen Vorgängen im Muskel, führte die Komplexität der Struktur und Funktionsweise eines Muskels zu einer ausgedehnten Vielfalt an Forschungsarbeiten. Zahlreiche Effekte, die bei einem arbeitenden Muskel beobachtet werden können, konnten bis heute noch nicht erklärt werden. Die Erkenntnisse, die für diese Arbeit relevant sind, sind jedoch in einem ausreichenden Maße erforscht und durch entsprechende mathematische Modelle repräsentierbar. Die Mechanik, die einem Muskel zugrunde liegt, wird auf diesen Modelle aufbauend beschrieben. Neben den Größen, die im später vorgestellten Modell verwendet worden sind, wird auch auf sonstige für biomechanische Untersuchungen relevante Eigenschaften eingegangen. Weiterhin wird dargestellt, wie verschiedene Kontraktionen (Einzelzuckung, Tetanus) mechanisch funktionieren. Für Muskelarbeit und Muskelleistung werden verschiedene Diagramme vorgestellt, welche die Zusammenhänge zwischen den physikalischen Größen Kraft, Geschwindigkeit, Arbeit und Leistung zeigen. Nach Vorstellung der ISOFIT-Methode zur Bestimmung von Muskel-Sehnen-Eigenschaften werden mathematische Formeln und Gleichungen zur Beschreibung von Kraft-Geschwindigkeits- und Kraft-Längen-Verhältnissen sowie der serienelastischen Komponente und der Muskelaktivierung, die zur Bewegungsgleichung führen, angegeben. Es folgen weitere mathematische Funktionen, welche die Aktivierungsvorgänge unterschiedlicher Muskelkontraktionen beschreiben, sowie das Muskelmodell nach Hill, welches seit vielen Jahren eine geeignete Basis für Forschungen im Bereich der Biomechanik darstellt. Bezüglich der Computergraphik wird ein kurzer Abriss gegeben, wie künstliche Menschen modelliert und animiert werden. Eine Übersicht über verschiedene Methoden zur Repräsentation der Oberfläche von Körpern, sowie deren Deformation unter Berücksichtigung der Einwirkung von Muskeln gibt die State-of-the-Art-Recherche. Neben den Oberflächenmodellen (Starrkörperdeformation, lokale Oberflächen-Operatoren, Skinning, Konturverformung, Deformation durch Keyshapes) werden auch Volumen- (Körperrepräsentation durch Primitive, Iso-Flächen) und Multi-Layer-Modelle (3-Layer-Modell, 4-Layer-Modell) vorgestellt und deren Vor- und Nachteile herausgearbeitet. Eine geeignete Repräsentation der Oberfläche, die Verformungen durch Muskelaktivität einbezieht, wurde durch die Benutzung von Pneus gekoppelt mit der Quaoaring-Technik gefunden. Dieses Verfahren, das auf Beobachtungen aus der Biologie basiert und zur Darstellung von organischen Körpern benutzt wird, ist ausgesprochen passend, um einen Muskel-Sehnen-Apparat graphisch darzustellen, handelt es sich doch hierbei auch um eine organische Struktur. Um die beiden Teilmodelle Simulation und Visualisierung zu verbinden, bietet sich die aus der Biomechanik bekannte Actionline an, die eine imaginäre Kraftlinie im Muskel und der Sehne darstellt. Die bei der Quaoaring-Methode verwendete Centerline, welches die Basis zur Modellierung des volumenkonstanten Körpers ist, kann durch die Kopplung an die physikalischen Vorgänge zu einer solchen Actionline erweitert werden. Veränderungen in der Länge und des Verlaufs der Actionline z. B. durch Muskelkontraktion wirken sich dadurch direkt auf die Form des Muskels aus und die Verbindung zur Visualisierung ist hergestellt.
In Publikationen zur Frauenliteratur der Weimarer Zeit finden sich, direkt oder mittelbar formuliert, zwei Thesen: Dass zum einen die politisch engagierte Frau in den Romanen eine selten anzutreffende Figur sei und dass zum anderen die Schriftstellerinnen jener Zeit sich politisch eher rückwärtsgewandt verhalten und geäußert hätten. In einer differenzierten Untersuchung wird mit einer Fülle von Beispielen belegt, dass tatsächlich aber vom Ersten Weltkrieg bis zum Ende der Republik zahlreiche Schriftstellerinnen die politischen Vorkommnisse beobachteten, direkt kommentierten oder literarisch ausgestalteten. Den Begriff „rückwärts gewandt“ problematisierend wird erläutert, dass diese Einstufung weder ohne weiteres bestätigt noch verneint werden kann, da Wertbegriffe wie „fortschrittlich“ oder „reaktionär“ nicht eindeutig und zweifelsfrei definiert werden können.
Background: Cancer gene therapy will benefit from vectors that are able to replicate in tumor tissue and cause a bystander effect. Replication-competent murine leukemia virus (MLV) has been described to have potential as cancer therapeutics, however, MLV infection does not cause a cytopathic effect in the infected cell and viral replication can only be studied by immunostaining or measurement of reverse transcriptase activity. Results: We inserted the coding sequences for green fluorescent protein (GFP) into the proline-rich region (PRR) of the ecotropic envelope protein (Env) and were able to fluorescently label MLV. This allowed us to directly monitor viral replication and attachment to target cells by flow cytometry. We used this method to study viral replication of recombinant MLVs and split viral genomes, which were generated by replacement of the MLV env gene with the red fluorescent protein (RFP) and separately cloning GFP-Env into a retroviral vector. Co-transfection of both plasmids into target cells resulted in the generation of semi-replicative vectors, and the two color labeling allowed to determine the distribution of the individual genomes in the target cells and was indicative for the occurrence of recombination events. Conclusions: Fluorescently labeled MLVs are excellent tools for the study of factors that influence viral replication and can be used to optimize MLV-based replication-competent viruses or vectors for gene therapy.
Massenmedien sind als Teil unserer Alltagswelt zu Anbietern sozialer Handlungsmuster geworden. Ihr Anteil an der Identitätsentwicklung wird zwar je nach Standpunkt unterschiedlich eingeschätzt, ihre grundsätzliche Bedeutung für die Sozialisation der Individuen ist aber unbestritten. Die Sozialwissenschaften beziehen in ihre Forschungen und ihr Erkenntnisinteresse daher den Faktor "Medien" immer häufiger mit ein. ...
Die Konvergenz von Medien, Telekommunikation sowie Informationstechnologie führt zu einer gesteigerten Interaktion zwischen den Computergeräten dieser drei Wirtschaftssektoren. Zugleich steigt die Anzahl mutierender Würmer, Viren und Trojanische Pferde, wie z.B. Varianten der Bagle- und Sober-Würmer oder der Netsky- und MyDoom-Viren, im Tagesrhythmus und bedrohen die Sicherheit von Computerplattformen. Die Daten der Systeme sind daher potenziellen Risiken ausgesetzt. Um dieser steigenden Bedrohung zu entgegnen, entwickelt die industrielle Initiative „Trusted Computing Group“ (TCG), ehemals „Trusted Computing Platform Alliance“ (TCPA), einen Standard, welcher die Sicherheit der verschiedenen Gerätetypen verbessern soll. Abbildung 1 dokumentiert dabei die Sicherheitsmängel, welche durch die verschiedenen Typen der Attacken oder den entdeckten Missbrauch veranschaulicht werden. Speziell Viren und der Missbrauch der Netzwerkzugänge innerhalb des Unternehmens können aus der Abbildung 1 als häufigste Ursache entnommen werden. Verlust des Laptops, nicht autorisierte Zugriffe durch Insider und Denial of Service Angriffe folgen auf den weiteren Plätzen. Die Gesamtkosten der Computerkriminalität sind zwar unter das Niveau vom Jahre 2000 gefallen, speziell von 2002 auf 2003 haben sich diese mehr als halbiert, obwohl seit 1999 besonders die Urheberrechtsverletzungen proprietärer Informationen stetig angestiegen sind. Der Verlust proprietärer Informationen steht mit 21 Prozent nicht direkt im Vordergrund der obigen Abbildung. Allerdings schlägt der Diebstahl von proprietären Informationen mit 35 Prozent der Gesamtkosten der Computerkriminalität zu buche und führt damit die geschätzten Verluste aus Abbildung 2 an. Auf Platz zwei folgen Denial of Service Angriffe, die Kosten von ca. 65,6 Millionen Dollar verursachen. Viren, Missbrauch des Netzes durch Insider sowie finanzieller Betrug folgen auf weiteren Plätzen. In der Studie vom Computer Security Institute werden die Bestrebungen der TCG, vertrauenswürdige Plattformen herzustellen, als mögliche Lösung des Problems des Diebstahls von proprietären Informationen betrachtet. Deren Effekte werden sich voraussichtlich in fünf bis zehn Jahren auf die Computersicherheit bemerkbar machen. Auch das „Federal Bureau of Investigation“ (FBI) hat mittlerweile eine Initiative zusammen mit der Entertainment- und Softwareindustrie gegen den Diebstahl von urheberrechtlich geschütztem Material abgeschlossen, da die Verluste in der Summe mehrere Billionen Dollar verursachen. Die beiden ersten Abbildungen in Verbindung mit dem dazugehörigen Zahlenmaterial belegen die Diskrepanz der TCG. Dazu stützt sich die TCG auf die steigende Anzahl an Attacken und Missbräuche, ohne die geschätzten Verluste der einzelnen Attacken zu berücksichtigen. Gerade die enorme wirtschaftliche Bedeutung von Information und deren Missbrauch offenbart allerdings einen möglichen Antrieb, die Sicherheit bestehender Rechnersysteme zu verbessern. Diese Erkenntnis ist jedoch nicht übereinstimmend mit der Triebkraft der TCG, die ihre Initiative auf die steigende Anzahl an Schwachstellen stützt, um vermutlich ihre eigentlichen Beweggründe zu verschleiern. Ziel dieser Arbeit ist zum einen den technischen Standard der TCG sowie mögliche Umsetzungen vorzustellen und zum anderen die Standardisierung unter ökonomischen Ansichten zu untersuchen, um sie anschließend zu bewerten. Dazu wird im zweiten Kapitel ein erster Einblick über das Standardisierungsgremium, deren Beweggründe sowie den historischen Kontext zwischen TCPA und TCG gegeben. Das dritte Kapitel dient als Grundlage und Einführung in die Informationsökonomie, um die Komplexität und Zusammenhänge hinsichtlich der Standardisierung und abschließenden Bewertung in den folgenden Kapiteln besser zu erfassen. Neben der Technologie und Information spielt die Auswahl der Erlöse in Verbindung mit der Preisdiskriminierung eine wichtige Rolle. Bezüglich der Standardisierung und Bewertung haben Lock-in sowie Wechselkosten erhebliche Auswirkungen auf die Kon-sumenten. Das gilt ebenfalls für die Größenvorteile, vor allem auf die Netzwerkexternalitäten. Die Standardisierung der TCG wird im vierten Kapitel ausführlicher behandelt, wobei Standards definiert, abgegrenzt und klassifiziert werden. Zudem wird die koope-rative Standardisierung in Form einer Allianz sowie die daraus folgende Problematik des Umgangs mit geistigem Eigentum eingegangen. Das fünfte Kapitel geht direkt auf die technischen Spezifikationen der TCG ein, erklärt das Grundkonzept vertrauenswürdiger Plattformen und behandelt als Schwerpunkt die Komponente des „Trusted Platform Modules“ (TPM) sowie dessen Implementierung in einen Computer. Im Anschluss daran werden im sechsten Abschnitt technischen Umsetzungen auf praktische Anwendungen und Szenarien vorgestellt. Dazu werden als Erstes verfügbare Umsetzungen sowie die Hardwarearchitektur am Beispiel von Intel LaGrande dargestellt, worauf die anschließenden Softwareanwendungen unter den beiden Betriebssystemen Windows und Linux aufbauen. Das siebte Kapitel behandelt die Bewertung der kooperativen Standardisierung und zeigt die Zusammenhänge zwischen Hardwarekompatibilität und Netzwerkexternalitäten auf. Darüber hinaus wird die Adoption dieser neuen Technologie unter statischen und dynamischen Ansätzen berechnet und abschließend die Schwächen und Risiken dieser neuen Technologie erläutert.
In dieser Diplomarbeit wurde zunächst eine Einführung in das Gebiet der Unifikationstheorie gegeben, um dann zum Teilgebiet des Kontextmatchings zu kommen. Dieses wurde in das Gesamtgebiet der Unifikation eingeordnet. In Anlehnung an [Schm2003] wurde die Komplexität einiger Einschränkungen des Kontextmatchings betrachtet. Insbesondere wurde ein Algorithmus zur Lösung linearer Kontextmatchingprobleme in polynomieller Zeit vorgestellt. Es folgte die Einführung des Transformationsalgorithmus aus [Schm2003] zur Lösung allgemeiner Kontextmatchingprobleme, wobei nach und nach verbesserte Transformationsregeln für einzelne spezielle Problemsituationen vorgestellt wurden. Über [Schm2003] hinausgehend wurden die Regeln Split: Korrespondierende Lochpfade und Konstantenelimination vorgestellt. Im Rahmen der Diplomarbeit wurden die genannten Algorithmen in der funktionalen Programmiersprache Haskell implementiert, wobei auf eine einfache Erweiterbarkeit um neue Transformationsregeln sowie alternative Heuristiken zur Auswahl der in einem Schritt anzuwendenden Transformationsregel geachtet wurde. Die Implementierung (und damit auch die in ihr implementierten Algorithmen) wurde mit Hilfe von zufällig erzeugten Termen auf ihre Leistungsfähigkeit getestet. Hauptaugenmerk lag dabei darauf, inwiefern sich Regeln, die über die Basisregeln aus Tabelle 3.4.1 hinausgehen, positiv auf die Anzahl der Transformationsschritte auswirken. Das Ergebnis ist beeindruckend: durch die Einführung komplexerer Transformationsregeln ließen sich in unseren Testfällen bis zu 87% der Transformationsschritte einsparen, im Durchschnitt immerhin noch 83%. Speziell komplexere Kontextmatchingprobleme mit einer größeren Anzahl an Kontextvariablen profitieren hiervon. Insbesondere die Erkennung korrespondierender Positionen in Verbindung mit der Regel Split führte zu erheblichen Verbesserungen. Die implementierten Algorithmen zur Erkennung korrespondierender Positionen stellen teilweise nur ein notwendiges Kriterium für die Existenz korrespondierender Löcher dar. Dies kann zu fehlerhaften Erkennungen solcher Positionen führen. Wie sich in unseren Tests zeigte, scheint das jedoch kein gravierendes Problem zu sein, da die entsprechenden Split- Transformationen ohnehin äußerst sparsam eingesetzt werden.
Wir haben ein Softwaresystem entwickelt, das in der Lage ist, Beschreibungen von Termersetzungssystemen höherer Ordnung, deren Reduktionsregeln auf einer strukturellen operationalen Semantik basieren, einzulesen und zu interpretieren. Das System ist dabei fähig, Reduktionskontexte für die Redexsuche zu benutzen, die entweder vom Benutzer definiert werden können oder automatisch anhand der strikten Positionen berechnet werden. Außerdem dürfen Kontexte und spezielle Definitionen für Term-Mengen, die wir Domains nennen, in den Reduktionsregeln verwendet werden. Mit dem resultierenden Reduktionssystem-Format können wir somit nicht nur den „lazy“ Lambda-Kalkül, den Call-by-Value Lambda-Kalkül und verwandte, um Konstruktoren und Fallunterscheidungen erweiterte Kalküle, wie die in Kapitel 4 vorgestellten Kernsprachen KFP und PCF, darstellen, sondern auch den (in Abschnitt 4.3 vorgestellten) Call-by-Need Lambda-Kalkül, welcher sich durch die Verwendung von Kontexten innerhalb der Regeln deutlich von den anderen Kalkülen abhebt. Allerdings hält sich der Call-by-Need Lambda-Kalkül damit nicht an das in Kapitel 5 vorgestellte GDSOS-Format, das u.a. sicherstellt, dass Bisimulation eine Kongruenz ist. Wir haben dabei in Abschnitt 5.3.3 bewiesen, dass sich ein GDSOS-Reduktionssystem in ein äquivalentes strukturiertes Auswertungssystem nach Howe übersetzen lässt. Unser System ist in der Lage, die GDSOS-Bedingungen zu prüfen und gibt eine Warnung aus, falls eine der nötigen Bedingungen nicht erfüllt ist (wobei aus dieser auch gleich der Grund des Verstoßes hervorgeht). Wie wir gesehen haben, ist unser System nicht nur befähigt, die einzelnen Reduktionsschritte für kleinere Bespiele ordnungsgemäß auszuführen, sondern es ist durchaus in der Lage, auch aufwendigere KFP-Ausdrücke, wie in unserem Quicksort- Beispiel, auszuwerten.
The volume changes of lithium and sodium under pressure are discussed with respect to the packing density of the atoms and their valence. In densely packed Li I (bcc), Li II (fcc), and Li III (alpha-Hg ype), valence increases from 1 at ~ 5 GPa to ~ 2.5 at 40 GPa. The maximum valence 3 is attained in Li IV (body-centered cubic, 16 atoms per cell, packing density q = 0.965) at 47 GPa. In densely packed Na I (bcc) a linear increase of valence from 1 at ~ 10 GPa to 2.9 at 65 GPa is found which continues in Na II (fcc) up to 4.1 at 103 GPa.
In der vorliegenden Arbeit ist es gelungen, hinreichend ebene Goldoberflächen als Substrate für Self-assembled Monolayers durch Aufdampfen auf Glimmer herzustellen und herauszuarbeiten, unter welchen Bedingungen sich die Struktur dieser Goldschichten für die Aufbringung der Monolagen verbessern lässt. Hervorzuheben ist hierbei, dass das Erhitzen des Glimmers während des Aufdampfvorgangs die Rauigkeit der Goldoberfläche reduziert. Vier unverzweigte Alkanthiole (HS-C10H20-CH3, HS-C15H30-CH3, HS-C17H34-CH3 und HS-C10H20-COOH) wurden in vier verschiedenen Konzentrationen in Ethanol gelöst und auf das Substrat aufgebracht. Die Thiole unterschieden sich in Kettenlänge (11, 16 und 18 C-Atome) sowie in der Kopfgruppe (CH3 und COOH). Die entstandenen Filme wurden ebenso wie die verwendeten Goldoberflächen mit dem Rasterkraftmikroskop im Tappingmode, im Contactmode und zum Teil im Frictionmode sowie unter Ethanol vermessen. Zwei Spitzen des Rasterkraftmikroskops wurden durch das Aufbringen einer Monolage (HS-C15H30-CH3 und HS-C10H20-COOH) funktionalisiert. Alle Monolagen wurden mit diesen Spitzen vermessen. Die gewonnenen Abbildungen lassen bis zu einem gewissen Punkt Rückschlüsse über die Beschaffenheit der Self-assembled Monolayers und ihre Eigenschaften zu, dies gilt vor allem für die Messungen im Frictionmode und die Abbildungen, die mit funktionalisierten Spitzen erzielt wurden. Da die Monolagen offensichtlich ohne sichtbare Fehlstellen ausgebildet wurden, fällt es schwer, die Abbildung der Filme von denen der Goldoberflächen eindeutig zu unterscheiden, auch wenn die ausgewerteten Linienprofile zeigen, dass die Rauigkeit der Oberfläche durch die Aufbringung von Monolagen verringert wird. Für zukünftige Messungen sollten die Monolagen vor der Vermessung durch Micro-Printing strukturiert werden. Zwischen Monolagen und funktionalisierten Spitzen wurden Kraft-Abstandskurven und Force-Volume-Abbildungen unter Laborbedingungen aufgezeichnet. Die ermittelten Werte liegen um Größenordnungen über den Werten aus der Literatur, was sich durch den auf den Monolagen unterschiedlich starken Wasserfilm, und den daraus resultierend, wirkenden Kapilarkräften bei der Messung erklären lässt. Diese Messungen sollten unter Flüssigkeit wiederholt werden, um aussagekräftige Ergebnisse zu erzielen. Es gelang dennoch durch diese Messungen, die Existenz der Monolagen auf Substrat und Spitze eindeutig nachzuweisen.
Left dislocation in Zulu
(2004)
This paper examines left dislocation constructions in Zulu, a Southern Bantu language belonging to the Nguni group (Zone S 40). In Zulu left dislocation configurations, a topic phrase in the beginning of the sentence is linked to a resumptive element within the associated clause. Typically, the resumptive element is an incorporated pronoun (cf. Bresnan & Mchombo 1987), as illustrated by the examples in (1) and (2). In these examples, the object pronoun (in italics) is part of the verbal morphology and agrees with the noun class (gender) of the dislocate. This situation is schematically illustrated in (3), where co-indexation represents agreement: ...
The volume changes of solid iodine under pressure are discussed with respect to the packing density of the atoms and to valence. The packing density of solid iodine which is 0.805 under ambient pressure increases to 0.976 in monoatomic iodine-II, 0.993 in iodine-III, and 1 in fcc iodine-IV. Simultaneously, the valence increases from 1 in the free molecule to 1.78 in the crystal structure under ambient pressure, 2.72 – 2.81 in iodine-II, 2.86 – 2.96 in iodine-III, and 3 in fcc iodine-IV. The valence then remains constant up to about 180 GPa and rises moderately to 3.15 at the highest investigated pressure of 276 GPa. Parameters for calculating bond numbers, valences and atomic volumes of densely packed halogens, hydrogen, oxygen, and nitrogen are given.
Multiplayer games have become very popular in the PC market. Almost none of the current games are shipped without some support for multiplayer gaming. At the same time mobile devices are becoming more powerful and popularity of games on these platforms increases. However, there are almost no games that support multiplayer gaming despite the multiple options of these devices to connect with each other and build mobile ad hoc networks. Reasons for this lack of multiplayer support are the high diversity of mobile devices as well as the different protocols and their properties that these devices support. With “SmartBlaster” we developed a multiplayer game for several different platforms that is using several different channels (Bluetooth, IrDa, 802.11 and other networks supporting TCP/IP) to communicate between them.
Indigene Kulturen und indigene Kunst unterliegen in der Betrachtung von "Weltkunst" vielen Klischees. Vor allem die Bezeichnungen "primitiv" als Attribut für Werke außerhalb der europäischen Kunstgeschichte und "naiv" (wie das englische Wort native vom Lateinischen nativus, 'angeboren, natürlich, ungekünstelt' abgeleitet) erschweren unvoreingenommene Denkweisen. Faszination gegenüber der Ästhetik des "exotischen" Objekts überlagerte oft die Wahrnehmung der Komplexität indigener Kunst, Künstlerpersönlichkeiten verschwanden in einer anonymen Vergangenheit. Mit dem politischen Umbruch nach dem zweiten Weltkrieg und den nachfolgenden gesellschaftlichen Veränderungen in vielen Kontinenten erfolgte auch im indigenen Nordamerika ein Wandel im Bewusstsein gegenüber der eigenen Kultur (R. Hill, Gesprächsprotokoll 2002). Nicht länger waren es nur Wissenschaftler euroamerikanischer Herkunft, die forschende Betrachtungen von außen vornahmen. Indigene Positionierungen entwickelten sich im internen Diskurs mit stammeseigenen Medien und Kultureinrichtungen. Identitätsstiftende Traditionen wurden reanimiert oder neu gebildet, um kulturelle Kontinuität zu wahren; künstlerische und wissenschaftliche Ausbildung erweiterte die Lebensperspektiven der jungen Generationen. Im Kontakt mit Studenten anderer Nationen und Kulturen entwickelte sich so eine eigenständige indigene Kunst, die mit verschiedenen Genres, Formen und Inhalten westlicher Kunstauffassung korreliert und im soziokulturellen Umfeld der spezifischen Bevölkerungsgruppen zu betrachten ist. ...
In the present study possible sources and pathways of the gasoline additive methyl tertiary-butyl ether (MTBE) in the aquatic environment in Germany were investigated. The objective of the present study was to clarify some of the questions raised by a previous study on the MTBE situation in Germany. In the USA and Europe 12 million t and 3 million t of MTBE, respectively, are used as gasoline additive. The detection of MTBE in the aquatic environment and the potential risk for drinking water resources led to a phase-out of MTBE as gasoline additive in single states of the USA. Meanwhile there is also an ongoing discussion about the substitution of MTBE in Europe and Germany. The annual usage of MTBE in Germany is about 600,000 t. However, compared to the USA, significant less data exists on the occurrence of MTBE in the aquatic environment in Europe. Because of its physico-chemical properties, MTBE readily vaporizes from gasoline, is water soluble, adsorbs only weakly to the underground matrix and is largely persistent to biological degradation. The toxicity of MTBE remains to be completely investigated, but MTBE in drinking water has low taste- and odor thresholds of 20-40 microgram/L. The present study was conducted by collecting water samples and analyzing them for their MTBE concentrations through a combination of headspace-solid phase microextraction (HS-SPME) and gas chromatography-mass spectrometry (GC-MS). The detection limit was 10 ng/L. The method was successfully tested in the framework of an interlaboratory study and showed recoveries of reference values of 89% (74 ng/L) and 104% (256 ng/L). The relative standard deviations were 12% and 6%. The investigation of 83 water samples from 50 community water systems (CWSs) in Germany revealed a detection frequency of 40% and a concentration range of 17-712 ng/L. The detection of MTBE in the drinking water samples could be explained by a groundwater pollution and the pathway river - riverbank filtration - waterworks. Rivers are important drinking water sources. MTBE is emitted into rivers through a variety of sources. In the present study, potential point sources were investigated, i.e. MTBE production sites/refineries/tank farms and groundwater pollutions. For this purpose, the spatial distribution of MTBE in three German rivers with the named potential emission sources located close to the rivers was investigated by analyzing 49 corresponding river water samples. The influence of the potential emission sources groundwater pollution and refinery/tank farm was successfully demonstrated in certain parts of the River Saale and the River Rhine. Increasing MTBE concentrations from 24 ng/L to 379 ng/L and from 73 ng/L to 5 microgram/L, respectively, could be observed in the parts investigated in these two rivers. The identification of such emission sources is important for future modeling. Further sources of MTBE emission into surface water are industrial (non-petrochemical) and municipal sewage plant effluents. In the present study long-term monitoring of water from the River Main (n=67 samples), precipitation (n=89) and industrial (n=34) and municipal sewage plant effluents (n=66) was conducted. The comparison of the data sets revealed that maximum MTBE concentrations in the River Main of up to 1 microgram/L were most possibly due to single industrial effluents with MTBE concentrations of up to 28 microgram/L (measured in this study). The average MTBE content of 66 ng/L in the River Main most probably originated from municipal sewage plant effluents and further industrial effluents. Background concentrations of <30 ng/L could be related to the direct atmospheric input via precipitation. A certain aspect of the atmospheric MTBE input is represented by the input of MTBE into river water or groundwater through snow. In the present study 43 snow samples from 13 different locations were analyzed for their MTBE content. MTBE could be detected in 65% of the urban and rural samples. The concentrations ranged from 11-613 ng/L and were higher than the concentrations in rainwater samples formerly analyzed. Furthermore, a temperature dependency and wash-out effects could be observed. The atmospheric input of MTBE was in part also visible in the analyzed groundwater samples (n=170). The detection frequencies in non-urban and urban wells were 24% and 63%, respectively. The median concentrations were 177 ng/L and 57 ng/L. In wells located in the vicinity of sites with gasoline contaminated groundwater, MTBE concentrations of up to 42 mg/L could be observed. The MTBE emission sources and the different pathways of MTBE in the aquatic environment demonstrated in the present study and other works raise the question whether the use of MTBE in a bulk product like gasoline should be continued in the future. Currently, possible substitutes like ethyl tertiary-butyl ether (ETBE) or ethanol are being discussed.
In der vorliegenden Arbeit wird untersucht, wie durch die Tätigkeit des Sprechens Bindung erzeugt wird. Die Kernthese lautet, dass es eine grundlegende Bindung gibt, die aus dem Umstand resultiert, dass vokale Symbole nur durch eine gemeinsame Tätigkeit von Sprecher und Hörer erzeugt werden können. Nur wenn der Hörer Laute als vokale Symbole identifiziert, ist die Äußerung des Sprechers eine sprachliche Äußerung, mit der eine Feststellung gemacht, eine Frage gestellt oder ein Befehl gegeben werden kann. Mit der Terminologie der Sprechakttheorie läßt sich daher sagen, dass auf der Ebene des lokutionären Aktes bereits eine Bindung bestehen muß, damit ein illokutionärer oder perlokutionärer Akt möglich ist. In der vorliegenden Untersuchung wird diese Bindung herausgearbeitet, indem verschiedene, teilweise sehr unterschiedliche Kommunikationsmodelle untersucht werden, die das Problem der kommunikativen Bindung thematisieren. Nach einer einführenden Besprechung von Paul Watzlawicks Annahmen zum Beziehungsaspekt von Kommunikation wird auf einige Aspekte des Zeichenmodells von Charles Sanders Peirce eingegangen. Mit Peirce werden Strukturmerkmale von vokalen Zeichen erarbeitet, die für die weiteren Untersuchungsschritte der Arbeit wegweisend sind. Im nächsten Kapitel wird auf die Konzeption des Symbolischen Interaktionismus von Georg Herbert Mead eingegangen, um ein Modell zu entwickeln, wie aus einfachen Interaktionen vokale Symbole generiert werden. Anschließend wird die Sprechakttheorie von John Langshaw Austin und John Searle behandelt. Dabei steht zunächst die Frage nach der Struktur der "illocutionary force" im Mittelpunkt. Daran schließt sich eine Analyse der These Searles an, dass ein "symbolizing move" als Kern eines Sprechaktes anzunehmen ist. Die Ergebnisse dieser Analyse werden mit den Ergebnissen der Untersuchung des Symbolischen Interaktionismus in ein Modell zusammengeführt, mit dem eine Sprecher und Hörer verbindende "locutionary force" identifiziert werden kann. Diese tritt bei der Konstitution von vokalen Zeichen durch die gemeinsame Aktivität eines Sprechers und eines Hörers auf und ist als eine Voraussetzung der "illocutionary force" anzusehen. Dieses Modell wiederum wird mit der Theorie des kommunikativen Handels von Jürgen Habermas verbunden, um die fragliche Bindungskraft in der lebensweltlichen kommunikativen Alltagspraxis von Sprechern und Hörern zu lokalisieren. Es wird eine Abgrenzung gegenüber der von Habermas angesprochenen Bindungskraft vorgenommen, einer Bindungskraft, die auf der semantischen und nicht auf der semiotischen Ebene von Sprechakten angesiedelt ist. Es zeigt sich zudem, dass die in der vorliegenden Arbeit aufgezeigte Bindung die der Kommunikation eigentümliche Bindung ist, - zumindest dann, wenn man Kommunikation als Akte des Sprechens auffaßt. Abschließend wird anhand einer alltäglichen Gesprächssituation das Auftreten und die Wirkungsweise dieser Bindungskraft beispielhaft erläutert.
British literature since world war II : a selected bibliography of secundary sources with special reference to drama/theatre and narrative prose (period covered : mid-1940 to 2000). Part I: Integrated alphabetical index. Part II: Specific bibliographies (as to author and subject)
Klinische Forschung zum Mammakarzinom in Deutschland wird von zahlreichen Faktoren bestimmt. Um die förderlichen und hinderlichen Faktoren bei der Planung und Durchführung von klinischer Forschung darstellen zu können, werden diese am Beispiel der größten deutschen Brustkrebsforschungsgruppe, der German Adjuvant Breast Cancer Group, GABG, dargestellt. In die GABG-Studien wurden seit der Gründung der Forschungsgruppe im Jahr 1981 in 18 Studien 9.692 Patientinnen eingebracht. Grundlage sind neben den Erfahrungen einer langjährigen Tätigkeit als Studienkoordinatorin dieser Forschungsgruppe die Ergebnisse einer schriftlichen und einer mündlichen Befragung der teilnehmenden Kliniken. Diese Arbeit beleuchtet die bei der Planung zu berücksichtigenden Kriterien wie, z.B. rechtliche und finanzielle Grundlagen, Kooperation mit der Klinikverwaltung, mit der Pharmazeutischen Industrie und mit anderen Studiengruppen, die Abhängigkeit von Ethikkommissionen und von der Qualität der Zentren sowie das Interesse der Öffentlichkeit an klinischer Forschung generell. Trotz förderlicher Einflüsse gibt es schon im Anfangsstadium einer klinischen Studie Defizite, die den Beginn einer Mammakarzinom-Studie in Deutschland behindern und teilweise sogar verhindern können. Die Effizienz von klinischer Forschung zum Mammakarzinom in Deutschland könnte wesentlich besser sein, wenn klinische Forschung in Kooperation statt in einem Nebeneinander gleichartiger Studiengruppen zum Mammakarzinom mit den fast gleichen Studieninhalten stattfinden würde. Bei der Durchführung der Studien zum Mammakarzinom gibt es im Rahmen der hier dargestellten Studiengruppe Ansätze, die die Effizienz von Studien bereits gesteigert haben. Dazu gehören positive Beispiele von gelungener Kommunikation mit den Prüfzentren, geeignete Fortbildungsangebote für Prüfärzte und für niedergelassene Ärzte sowie für das Dokumentationspersonal der teilnehmenden Kliniken. Mit der Darstellung der hinderlichen Faktoren bei der Durchführung der Studien in der GABG werden die Defizite der klinischen Forschung zum Mammakarzinom in Deutschland beispielhaft vorgestellt. Defizite sind neben der geringen Stellung der klinischen Forschung in Deutschland in der mangelnden Institutionalisierung und den strukturellen Defiziten klinischer Forschung sowie in den daraus resultierenden rigiden Verwaltungsstrukturen zu finden. Zudem wird auf die fehlende Ausbildung für klinische Forschung und den kaum gelernten Umgang mit dem Patienten als hinderliche Faktoren hingewiesen. Die schlechten Arbeitsbedingungen für Prüfärzte, der ständige Prüfarztwechsel, sowie das geringe kulturelle Ansehen der klinischen Forschung in Deutschland sind weitere Gründe für die mangelnde Patienteneinbringung in Studien und für die zeitverzögerte Dokumentation von klinischen Studien. Die Verwertung der Studienergebnisse ist innerhalb der GABG, aber auch im internationalen Vergleich noch zu gering. Zum Schluss werden Vorschläge für die Verbesserung der klinischen Forschung zum Mammakarzinom in Deutschland gemacht. Dazu gehört ihre bessere Institutionalisierung, mehr staatliche Förderung (DFG-Mittel) und damit die Stärkung der Unabhängigkeit von der Industrie, die vermehrte Kooperation zwischen allen beteiligten Gruppierungen, die Umsetzung des von der EU geforderten „einen Ethik- Votums“, die Aufstockung und bessere Bezahlung von Personal für klinische Forschung, die Einführung einer Ausbildung und die Verstärkung der Fort- und Weiterbildungsanstrengungen für klinische Forschung. Abgerundet wird dies durch die Forderung nach Qualitätssicherung durch GCP/ICH Konformität bei der Ausführung der mit klinischer Forschung verbundenen Tätigkeiten. Ziel sollte weiterhin die Steigerung der Veröffentlichungen der Forschungsergebnisse in internationalen Journalen, in der Fachpresse, aber auch in der Laienpresse sein. Nur so kann das Interesse der Öffentlichkeit und noch nicht erkrankter Frauen an klinischer Forschung in Deutschland geweckt werden. Mit dem Ausblick auf eine Neustrukturierung der GABG durch Gründung der German Breast Group (GBG), einer Forschungs GmbH, die als Plattform für klinische Studien zum Mammakarzinom eine schnellere, zielgerichtetere und damit erfolgreichere Umsetzung klinischer Forschung in Deutschland mit verbesserter Therapie zum Wohle des Patienten anstrebt, wird diese Arbeit abgeschlossen.
This dissertation investigates developments in the performance of J. S. Bach’s music in the second half of the 20th century, as reflected in recordings of the Mass in B Minor, BWV 232. It places particular emphasis on issues relating to concepts of expression through performance. Between the 1950s and the 1980s, most Bach performers shared a partial consensus as to what constitutes expression in performance (e.g., intense sound; wide dynamic range; rubato). Arguments against the application of such techniques to Bach’s works were often linked with the view that his music is more “objective” than later repertoires; or, alternatively, that expressive elements in Bach’s music are self-sufficient, and should be not be intensified in performance. Historically-informed performance (HIP), from the late 1960s onwards, has been characterised by greater attention to the inflection of local details (i.e., individual figures and motifs). In terms of expressive intensity, this led to contradictory results. On the one hand, several HIP performances were characterised by a narrow overall dynamic range, light textures, fast tempi and few contrasts; these performances were often considered lightweight. On the other hand, HIP also promoted renewed interest in the practical application of Baroque theories of musical rhetoric, inspiring performances which projected varied intensity within movements. More recently, traditional means of expression have enjoyed renewed prominence. Ostensibly “romantic” features such as broad legati, long-range crescendi and diminuendi, and organic shaping of movements as wholes have been increasingly adopted by HIP musicians. In order to substantiate the narrative outlined above, the significance of the evidence preserved in sound recordings had to be checked against other sources of information. This dissertation is divided into two main parts. The first part focuses on specific “schools” of prominent Bach performers. Complete recordings of the Mass are examined in relation to the biographical and intellectual backgrounds of the main representatives of these schools, their verbally-expressed views on Bach’s music and on their own role as performers, and their style as documented in recordings of other works. The second part examines the performance history of specific movements within the Mass, comparing the interpretations preserved in sound recordings with relevant verbal analyses and commentaries. The dissertation as a whole therefore combines the resources of reception and performance studies. Beyond its specific historical conclusions concerning Bach performance in the post-war era, it also provides specific insights into Bach’s music, its meaning and its role in contemporary culture.
Die bei der Photosynthese verwendete Lichtenergie wird zu einem großen Anteil von Lichtsammlersystemen bereitgestellt. In der pflanzlichen Photosynthese wird unterschieden zwischen Lichtsammlersytem I (light harvesting complex I, LHC-I), assoziiert mit Photosystem I (PS-I) und Lichtsammlersystem II (light harvesting complex II, LHC-II), assoziiert mit Photosystem II (PS-II). LHC-II ist der häufigste Protein-Pigment Komplex der Chloroplasten und bindet bis zu 50% aller Chlorophylle in der Thylakoidmembran. Der Protein-Pigment Komplex LHC-II hat vier, teils miteinander verwandte Funktionen in der Photosynthese. I) Die Sammlung und Weiterleitung von Lichtenergie, II) Stabilisierung der Granastapel, III) Ausgleich der Anregungsenergie von PS-I und PS-II, IV) Schutz der Photosynthese vor Überanregung mittels nichtphotochemischer Eliminierung von Anregungsenergie (NPQ). In der Pflanze bildet LHC-II Trimere in verschiedenen Kombinationen dreier Isoformen (Lhcb1, Lhcb2 und Lhcb3), wobei Lhcb1 mit 70-90% den Hauptteil des LHC-II stellt. Jedes Monomer bindet 8 verschiedene Co-Faktoren in unterschiedlichen Mengen, die ca. 30% seiner Masse ausmachen. Die drei Isoformen des LHC-II sind in allen Pflanzen stark konserviert. Die funktionelle Bedeutung der Isoformen ist jedoch weitestgehend unklar. Dies liegt vor allem an der schwierigen Isolierung reiner Isoformen aus Pflanzenmaterial. Im ersten Teil dieser Arbeit wurden deshalb alle drei Isoformen rekombinant hergestellt und mit getrennt isolierten Lipiden und photosynthetischen Pigmenten in ihre native Form gefaltet. Die anschließende biochemische und spektroskopische Charakterisierung zeigte einen hohen Grad an Homologie zwischen den drei Isoformen, wobei Lhcb3 die größten Unterschiede aufwies (Standfuss und Kühlbrandt 2004). Die wahrscheinlichsten Funktionen für Lhcb1 und Lhcb2 ist die Anpassung der Photosynthese an variierende Lichtbedingungen. LHC-II Heterotrimere mit Lhcb3 Anteil könnten an der Weiterleitung von Lichtenergie von der Haupt Lhcb1/Lhcb2 Antenne zum PS-II Reaktionszentrum beteiligt sein. Für die Erforschung des LHC-II war das mittels Cryo-Elektronenmikroskopie an 2D Kristallen erstellte atomare Modell des Komplexes von enormer Bedeutung. Ein tiefes Verständnis der Funktionen des LHC-II benötigt jedoch eine Struktur von höherer Auflösung, welche mit 2D Kristallen nur schwer zu erreichen ist. Im Verlauf der Arbeit wurden deshalb mehr als 100000 3D Kristallisationsexperimente durchgeführt, wodurch die Kristallisation von aus Erbsenblättern isoliertem und in vitro gefaltetem LHC-II gelang. Die 3D Kristalle aus nativem Material zeigten einen für die röntgenkristallographische Strukturaufklärung ausreichenden Ordnungsgrad und führten zu einer Struktur des LHC-II bei 2.5 Å Auflösung (Standfuss et al., eingereicht). Die Struktur zeigt 223 der 232 Aminosäuren und die Position und Orientierung von 4 Carotinoiden (2 Luteine, 1 Neoxanthin und 1 Violaxanthin), 14 Chlorophyllen (8 Chl a und 6 Chl b) und zwei Lipiden (PG und DGDG) pro Monomer. Diese Informationen sind essentiell für das Verständnis des Energietransfers innerhalb des LHC-II und zu den Photoreaktionszentren und sollten zusammen mit der großen Anzahl von spektroskopischen Untersuchungen eine zukünftige detaillierte Modellierung dieser ultraschnellen und extrem effizienten Energietransfer Prozesse ermöglichen. Auf Basis der Ladungsverteilung der stromalen Seite des Komplexes konnte ein Modell für die Beteiligung des LHC-II an der Stapelung von Grana in Chloroplasten erstellt werden. Dieses liefert außerdem eine plausible Erklärung für den mittels Phosphorylierung des N-Terminus gesteuerten Ausgleich von Anregungsenergie zwischen PS-I und PS-II. Die 2.5 Å Struktur des LHC-II zeigt schließlich einen einfachen aber effektiven Mechanismus zur Optimierung und Schutz des Photosyntheseapparates mittels NPQ. Dieser benötigt keine Strukturänderungen des LHC-II oder der restlichen Lichtsammelantenne und beruht auf der reversiblen Bindung der Xanthophylle Violaxanthin und Zeaxanthin an LHC-II. Diese Arbeit liefert damit Beiträge zu allen Funktionen des LHC-II Komplexes und hilft damit grundlegende Regulationsmechanismen und die Bereitstellung von solarer Energie für die pflanzliche Photosynthese zu verstehen.
Calcium-activated potassium channels are fundamental regulators of neuron excitability. SK channels are activated by an intracellular increase of Ca++ (such as occurs during an action potential). They have a small single channel conductance (less than 20pS) and show no voltage dependence of activation. To date, there are only a few examples of high-resolution structures of eukaryotic membrane proteins. All of them were purified from natural sources. Since no abundant natural sources of eukaryotic K+ channels are available we overexpressed rSK2 in order to produce the quantities necessary for structural analysis. Unfortunately the Pichia pastoris expression system did not yield sufficient amount of pure protein, mainly because most of the protein was retained by in the ER and was only partially soluble. Subsequently, two constructs were expressed: SK2-FCYENE (containing a specific sequence that promotes surface expression), and SK2-q-CaM a concatamer of SK2 and calmodulin. Although these proved an improvement in terms of solubilisation, little improvement was found in terms of amounts of purified material obtained. For this reason we tested the Semliki Forest virus expression system, since the protein is expressed in a mammalian system where we hoped that it would be trafficked in the same way as in vivo. Using this system it was possible to express rSK2 and solubilise it with several detergents and to achieve much better purification. However, the levels were still not sufficient for high-resolution structural studies, although sufficient for single particle electron microscopy analysis.
In dieser Studie werden die Wirkungen von Arbeitsbeschaffungsmaßnahmen (ABM) in Deutschland auf die individuellen Eingliederungswahrscheinlichkeiten der Teilnehmer in reguläre Beschäftigung evaluiert. Für die Untersuchung wird ein umfangreicher und informativer Datensatz aus den Datenquellen der Bundesagentur für Arbeit (BA) verwendet, der es ermöglicht, die Wirkungen der Programme differenziert nach individuellen Unterschieden der Teilnehmer und mit Berücksichtigung der heterogenen Arbeitsmarktstruktur zu untersuchen. Der Datensatz enthält Informationen zu allen Teilnehmern in ABM, die ihre Maßnahmen im Februar 2000 begonnen haben, und zu einer Kontrollgruppe von Nichtteilnehmern, die im Januar 2000 arbeitslos waren und im Februar 2000 nicht in die Programme eingetreten sind. Mit Hilfe der Informationen der Beschäftigtenstatistik ist es hierbei erstmals möglich, den Abgang in reguläre Beschäftigung auf Grundlage administrativer Daten zu untersuchen. Der vorliegende Verbleibszeitraum reicht bis Dezember 2002. Unter Verwendung von Matching-Methoden auf dem Ansatz potenzieller Ergebnisse werden die Effekte von ABM mit regionaler Unterscheidung und für besondere Problem- und Zielgruppen des Arbeitsmarktes geschätzt. Die Ergebnisse zeigen zwar deutliche Unterschiede in den Effekten für Subgruppen, insgesamt weisen die empirischen Befunde jedoch darauf hin, dass das Ziel der Eingliederung in reguläre ungeförderte Beschäftigung durch ABM weitgehend nicht realisiert werden konnte. JEL: C40 , C13 , J64 , H43 , J68
This paper evaluates the effects of job creation schemes on the participating individuals in Germany. Since previous empirical studies of these measures have been based on relatively small datasets and focussed on East Germany, this is the first study which allows to draw policy-relevant conclusions. The very informative and exhaustive dataset at hand not only justifies the application of a matching estimator but also allows to take account of threefold heterogeneity. The recently developed multiple treatment framework is used to evaluate the effects with respect to regional, individual and programme heterogeneity. The results show considerable differences with respect to these sources of heterogeneity, but the overall finding is very clear. At the end of our observation period, that is two years after the start of the programmes, participants in job creation schemes have a significantly lower success probability on the labour market in comparison to matched non-participants.
In dieser Studie werden die Wirkungen von Arbeitsbeschaffungsmaßnahmen (ABM) in Deutschland auf die individuellen Eingliederungswahrscheinlichkeiten der Teilnehmer in reguläre Beschäftigung evaluiert. Für die Untersuchung wird ein umfangreicher und informativer Datensatz aus den Datenquellen der Bundesagentur für Arbeit (BA) verwendet, der es ermöglicht, die Wirkungen der Programme differenziert nach individuellen Unterschieden der Teilnehmer und mit Berücksichtigung der heterogenen Arbeitsmarktstruktur zu untersuchen. Der Datensatz enthält Informationen zu allen Teilnehmern in ABM, die ihre Maßnahmen im Februar 2000 begonnen haben, und zu einer Kontrollgruppe von Nichtteilnehmern, die im Januar 2000 arbeitslos waren und im Februar 2000 nicht in die Programme eingetreten sind. Mit Hilfe der Informationen der Beschäftigtenstatistik ist es hierbei erstmals möglich, den Abgang in reguläre Beschäftigung auf Grundlage administrativer Daten zu untersuchen. Der vorliegende Verbleibszeitraum reicht bis Dezember 2002. Unter Verwendung von Matching-Methoden auf dem Ansatz potenzieller Ergebnisse werden die Effekte von ABM mit regionaler Unterscheidung und für besondere Problem- und Zielgruppen des Arbeitsmarktes geschätzt. Die Ergebnisse zeigen zwar deutliche Unterschiede in den Effekten für Subgruppen, insgesamt weisen die empirischen Befunde jedoch darauf hin, dass das Ziel der Eingliederung in reguläre ungeförderte Beschäftigung durch ABM weitgehend nicht realisiert werden konnte. JEL: C40 , C13 , J64 , H43 , J68
We propose a new framework for modelling the time dependence in duration processes being in force on financial markets. The pioneering ACD model introduced by Engle and Russell (1998) will be extended in a manner that the duration process will be accompanied by an unobservable stochastic process. The Discrete Mixture ACD framework provides us with a general methodology which puts the idea into practice. It is established by introducing a discrete-valued latent regime variable which can be justified in the light of recent market microstructure theories. The empirical application demonstrates its ability to capture specific characteristics of intraday transaction durations while alternative approaches fail. JEL classification: C41, C22, C25, C51, G14.
In recent methodological work the well known ACD approach, originally introduced by Engle and Russell (1998), has been supplemented by the involvement of an unobservable stochastic process which accompanies the underlying process of durations via a discrete mixture of distributions. The Mixture ACD model, emanating from the specialized proposal of De Luca and Gallo (2004), has proved to be a moderate tool for description of financial duration data. The use of one and the same family of ordinary distributions has been common practice until now. Our contribution incites to use the rich parameterized comprehensive family of distributions which allows for interacting different distributional idiosyncrasies. JEL classification: C41, C22, C25, C51, G14
Schulstruktur und Gewalt in der Schule : PISA-Ratschlag bei "schuldistanzierten" Jugendlichen
(2004)
Bildungsgerechtigkeit beim Erwerb von Lesekompetenz : eine neue "Bestandsaufname Deutschunterricht"
(2004)
Information literacy is a mosaic of attitudes, understandings, capabilities and knowledge about which there are three myths. The first myth is that it is about the ability to use ICTs to access a wealth of information. The second is that students entering higher education are information literate because student centred, resource based, and ICT focused learning are now pervasive in secondary education. The third myth is that information literacy development can be addressed by library-centric generic approaches. This paper addresses those myths and emphasises the need for information literacy to be recognised as the critical whole of education and societal issue, fundamental to an information-enabled and better world. In formal education, information literacy can only be developed by infusion into curriculum design, pedagogies, and assessment.
Navigating information, facilitating knowledge: the library, the academy, and student learning
(2004)
Understanding the nature and complementarity of the phenomena of information and knowledge lend not only epistemological clarity to their relationship, but also reaffirms the place of the library in the academic mission of knowledge transfer, acquisition, interpretation, and creation. These in turn reassert the legitimacy of the academic library as necessary participant in the teaching enterprise of colleges and universities. Such legitimacy induces an obligation to teach, and that obligation needs to be explored and implemented with adequate vigor and reach. Librarians and the academy must, however, concede that the scope of the task calls for a solution that goes beyond shared responsibilities. Academic libraries should assume a full teaching function even as they continue their exploration and design of activities and programs aimed at reinforcing information literacy in the various disciplines on campus. All must concede that need for collaboration cannot provide grounds for questioning the desirability of autonomous teaching status for the academic library in information literacy education
Abstract: The medium modification of kaon and antikaon masses, compatible with low energy KN scattering data, are studied in a chiral SU(3) model. The mutual interactions with baryons in hot hadronic matter and the e ects from the baryonic Dirac sea on the K( ¯K ) masses are examined. The in-medium masses from the chiral SU(3) e ective model are compared to those from chiral perturbation theory. Furthermore, the influence of these in-medium e ects on kaon rapidity distributions and transverse energy spectra as well as the K, ¯K flow pattern in heavy-ion collision experiments at 1.5 to 2 A·GeV are investigated within the HSD transport approach. Detailed predictions on the transverse momentum and rapidity dependence of directed flow v1 and the elliptic flow v2 are provided for Ni+Ni at 1.93 A·GeV within the various models, that can be used to determine the in-medium K± properties from the experimental side in the near future.
Antibaryons bound in nuclei
(2004)
We study the possibility of producing a new kind of nuclear systems which in addition to ordinary nucleons contain a few antibaryons (B = p, , etc.). The properties of such systems are described within the relativistic mean field model by employing G parity transformed interactions for antibaryons. Calculations are first done for infinite systems and then for finite nuclei from 4He to 208Pb. It is demonstrated that the presence of a real antibaryon leads to a strong rearrangement of a target nucleus resulting in a significant increase of its binding energy and local compression. Noticeable e ects remain even after the antibaryon coupling constants are reduced by factor 3 4 compared to G parity motivated values. We have performed detailed calculations of the antibaryon annihilation rates in the nuclear environment by applying a kinetic approach. It is shown that due to significant reduction of the reaction Q values, the in medium annihilation rates should be strongly suppressed leading to relatively long lived antibaryon nucleus systems. Multi nucleon annihilation channels are analyzed too. We have also estimated formation probabilities of bound B + A systems in pA reactions and have found that their observation will be feasible at the future GSI antiproton facility. Several observable signatures are proposed. The possibility of producing multi quark antiquark clusters is discussed. PACS numbers: 25.43.+t, 21.10.-k, 21.30.Fe, 21.80.+a
We study the phase diagram of a generalized chiral SU(3)-flavor model in mean-field approxi- mation. In particular, the influence of the baryon resonances, and their couplings to the scalar and vector fields, on the characteristics of the chiral phase transition as a function of temperature and baryon-chemical potential is investigated. Present and future finite-density lattice calculations might constrain the couplings of the fields to the baryons. The results are compared to recent lattice QCD calculations and it is shown that it is non-trivial to obtain, simultaneously, stable cold nuclear matter.
Die Arbeit untersucht die für den Online-Journalismus typischen, kurzen Ankündungstexte auf den Startseiten ausgewählter, deutschen Online-Zeitungen. Außerdem wird die Ankündigung als mediales Prinzip untersucht, der Teaser in seinen Funktionen beschrieben. Schließlich wird ein Korpus von Teasern unter syntaktischen und stilistischen Aspekten untersucht. Im Ergebnis wird die Textsorte als ausgereift und variantenreich bewertet. Die verschiedenen Textfunktionen wie Orientierung, Information, Lesemotivation werden sprach- stilistisch gezielt unterstützt: lexikalisch z.B durch Eigennamen oder Augenblickskomposita. Syntaktisch konnten interessante Einzelphänomene wie die Steigerung der Satz-Rhythmik durch Ellipsen oder die Ausgliederung von Satzteilen beobachtet werden.
A critical discussion of the present status of the CERN experiments on charm dynamics and hadron collective flow is given. We emphasize the importance of the flow excitation function from 1 to 50 A·GeV: here the hydrodynamic model has predicted the collapse of the v1-flow and of the v2-flow at 10 A·GeV; at 40 A·GeV it has been recently observed by the NA49 collaboration. Since hadronic rescattering models predict much larger flow than observed at this energy we interpret this observation as potential evidence for a first order phase transition at high baryon density B. A detailed discussion of the collective flow as a barometer for the equation of state (EoS) of hot dense matter at RHIC follows. Here, hadronic rescattering models can explain < 30% of the observed elliptic flow, v2, for pT > 2 GeV/c. This is interpreted as evidence for the production of superdense matter at RHIC with initial pressure far above hadronic pressure, p > 1 GeV/fm3. We suggest that the fluctuations in the flow, v1 and v2, should be measured in future since ideal hydrodynamics predicts that they are larger than 50 % due to initial state fluctuations. Furthermore, the QGP coe cient of viscosity may be determined experimentally from the fluctuations observed. The connection of v2 to jet suppression is examined. It is proven experimentally that the collective flow is not faked by minijet fragmentation. Additionally, detailed transport studies show that the awayside jet suppression can only partially (< 50%) be due to hadronic rescattering. We, finally, propose upgrades and second generation experiments at RHIC which inspect the first order phase transition in the fragmentation region, i.e. at µB 400 MeV (y 4 5), where the collapse of the proton flow should be seen in analogy to the 40 A·GeV data. The study of Jet-Wake-riding potentials and Bow shocks caused by jets in the QGP formed at RHIC can give further information on the equation of state (EoS) and transport coe cients of the Quark Gluon Plasma (QGP).
A scenario of heavy resonances, called massive Hagedorn states, is proposed which exhibits a fast (t H 1 fm/c) chemical equilibration of (strange) baryons and anti-baryons at the QCD critical temperature Tc. For relativistic heavy ion collisions this scenario predicts that hadronization is followed by a brief expansion phase during which the equilibration rate is higher than the expansion rate, so that baryons and antibaryons reach chemical equilibrium before chemical freeze-out occurs. PACS-Nr.: 12.38.Mh