Refine
Year of publication
- 2004 (1779) (remove)
Document Type
- Article (669)
- Doctoral Thesis (281)
- Part of a Book (153)
- Part of Periodical (143)
- Working Paper (114)
- Review (111)
- Conference Proceeding (76)
- Book (60)
- Preprint (55)
- Report (47)
Language
- German (1224)
- English (508)
- French (17)
- Portuguese (9)
- Multiple languages (6)
- Spanish (6)
- mis (4)
- Italian (2)
- Turkish (2)
Keywords
- Johann Wolfgang von Goethe (38)
- Deutsch (34)
- Frankfurt <Main> / Universität (29)
- Deutschland (27)
- Syntax (27)
- Rezension (24)
- Generative Transformationsgrammatik (23)
- Wortstellung (21)
- Anton Ulrich <Braunschweig-Wolfenbüttel (19)
- Herzog> / Octavia (19)
Institute
- Medizin (152)
- Physik (107)
- Extern (91)
- Biochemie und Chemie (69)
- Wirtschaftswissenschaften (57)
- Rechtswissenschaft (51)
- Biowissenschaften (38)
- Erziehungswissenschaften (31)
- Universitätsbibliothek (31)
- Center for Financial Studies (CFS) (30)
The research performed in the DeepThought project aims at demonstrating the potential of deep linguistic processing if combined with shallow methods for robustness. Classical information retrieval is extended by high precision concept indexing and relation detection. On the basis of this approach, the feasibility of three ambitious applications will be demonstrated, namely: precise information extraction for business intelligence; email response management for customer relationship management; creativity support for document production and collective brainstorming. Common to these applications, and the basis for their development is the XML-based, RMRS-enabled core architecture framework that will be described in detail in this paper. The framework is not limited to the applications envisaged in the DeepThought project, but can also be employed e.g. to generate and make use of XML standoff annotation of documents and linguistic corpora, and in general for a wide range of NLP-based applications and research purposes.
Indem das Internet als Infrastruktur die Transaktionskosten grenzüberschreitender Kommunikation radikal senkt, wirkt es als Katalysator der Globalisierung der Gesellschaft1. Rechtskollisionen erhalten hierdurch in allen gesellschaftlichen Bereichen eine gesteigerte Bedeutung. Im Rahmen der allgemeinen Debatte um die Etablierung einer Global Governance kommt der Internetgovernance deshalb eine paradigmatische Rolle zu. Aus ökonomischer Sicht steht dabei die Schaffung eines Rechtsrahmens für den globalen E-Commerce im Vordergrund. Im Hinblick auf eine innovationsoffene Regulierung erscheint es in diesem Zusammenhang als reizvoll, der Frage nach einem Rechtsrahmen für den grenzüberschreitenden Business-to-Consumer-E-Commerce nachzugehen. Denn das deutsche und europäische Verbrauchervertragsrecht stehen aktuell eher für eine gegenläufige Tendenz zur Begrenzung der Privatautonomie zugunsten zwingender Vorgaben des Gesetzgebers, die auch kollisionsrechtlich gegen eine parteiautonome Rechtswahl abgesichert werden5. Während etwa das in der E-Commerce-Richtlinie verankerte Herkunftsstaatprinzip nicht nur dasWirtschaftsaufsichtsrecht,sondern auch weite Teile des Zivilrechts den Innovationskräften des Systemwettbewerbs öffnet, scheint sich das Verbrauchervertragsrecht aufgrund seines Schutzzweckes als mit innovationsoffenen Regulierungsmodellen inkompatibel zu erweisen. Ist damit auf dem Gebiet des Verbrauchervertragsrechts nicht nur der traditionelle Wettbewerb der individuellen Vertragsklauseln sowie der Klauselwerke (AGB) innerhalb einer staatlichen Privatrechtsordnung, sondern auch der institutionelle Wettbewerb zwischen den Verbraucherschutzmodellen der verschiedenen staatlichen Privatrechtsordnungen ausgeschlossen, so verbleibt als potentieller Innovationsspeicher nur der Raum der gesellschaftlichen Selbstregulierung jenseits des (staatlichen) Rechts. Vor diesem Hintergrund wird im folgenden untersucht, ob und inwieweit sich aufgrund der spezifischen Charakteristika der Internetkommunikation im Bereich des globalen E-Commerce eine Verdichtung von Phänomenen der privaten Normsetzung und der sozialen Selbstregulierung beobachten läßt, die als Emergenz eines transnationalen Verbrauchervertragsrechts interpretiert werden kann. Zunächst soll dabei eine Definition transnationalen Rechts entwickelt werden, die diesen Begriff an die spontanen Innovationskräfte der globalen Zivil(rechts)gesellschaft koppelt (II.). In einem zweiten Schritt werden dann Entstehungsbedingungen und Phänomene eines transnationalen Verbrauchervertragsrechts beleuchtet (III.). Sodann wird der Frage nach einer Konstitutionalisierung des transnationalen Verbrauchervertragsrechts nachgegangen (IV.). Der Beitrag schließt mit einem Ausblick auf potentielle Ziele und Methoden der Regulierung des Wettbewerbs transnationaler Verbraucherschutzregimes (V.).
Der elektronische Handel wird die Wirtschaft tiefgreifend verändern: insoweit herrscht weitgehend Einigkeit. Welche konkreten Auswirkungen sich aus der Etablierung eines elektronischen Weltmarktplatzes für die Handels- und Wettbewerbsstrukturen ergeben werden, ist hingegen unklar. Gegenwärtig konkurrieren zwei unterschiedliche Visionen: Nach einer Ansicht wird die Welt zwar etwas virtueller und vor allem effizienter, im übrigen bleibt aber alles wie es ist. Die Aufregung um die New Economy ist danach völlig übertrieben, in einer anstehenden Konsolidierungsphase werden die meisten Internet-Start-Ups vom Markt verschwinden oder von den großen etablierten Unternehmen übernommen. Wenige Global Player werden die elektronischen Weltmärkte unter sich aufteilen, wobei diese jeweils über regionale Tochterunternehmen tätig werden. Für kleine Unternehmen verbleiben allenfalls Marktnischen. Die Gegenvision beschreibt den elektronischen Handel als Welt des vollständigen Wettbewerbs. Marktzutrittsschranken werden durch das Internet weitgehend beseitigt, so dass auch kleine Unternehmen mit minimalen Investitionen Zugang zum Weltmarkt erlangen können. Standort und Größe eines Unternehmens verlieren an Bedeutung, während Flexibilität, Innovationskraft und Schnelligkeit zu alles entscheidenden Faktoren werden. Zwischen einer auf hoher Markttransparenz beruhenden neuen Verbrauchersouveränität und einem verschärften internationalen Standortwettbewerb werden den "mice" gegenüber den "elephants" die besseren Chancen eingeräumt. Wenn einem die zweite Vision aus wettbewerbspolitischer Sicht auch sympathischer erscheinen mag, so liegt die Wahrheit doch wahrscheinlich – wie so häufig – irgendwo in der Mitte (Klodt, 2001). Der elektronische Handel birgt spezifische Herausforderungen an die Rechts- und Wirtschaftspolitik. So haben die Europäische Union und der deutsche Gesetzgeber in den vergangenen Jahren eine Reihe von Maßnahmen ergriffen, die wirksame elektronische Vertragsschlüsse ermöglichen und gleichzeitig die Rechte des Verbrauchers sichern sollen (Hübner, 2001).1 Die Politik stößt allerdings auf Grenzen, wo es um inhärent globale Probleme geht (Schäfer, 1999; Engel, 2000). Wo etwa soll der institutionelle Rahmen für den grenzüberschreitenden elektronischen Handel herkommen und wer tritt den Beherrschern der elektronischen Weltmärkte entgegen? Diesen Fragen an eine als interdisziplinäre Institutionentheorie verstandene Rechts- und Wirtschaftstheorie, die im Zweifelsfalle auch ohne Staat und Politik auskommen muss, wird im folgenden nachgegangen.
In April 2003 I commented on the European Commission’s Action Plan on a More Coherent European Contract Law [COM(2003) 68 final] and the Green Paper on the Modernisation of the 1980 Rome Convention [COM(2002) 654 final].1 While the main argument of that paper, i.e. the common neglect of the inherent interrelation between both the further harmonisation of substantive contract law by directives or through an optional European Civil Code on the one hand and the modernisation of conflict rules for consumer contracts in Art. 5 Rome Convention on the other hand, remain pressing issues, and as the German Law Journal continues its efforts in offering timely and critical analysis on consumer law issues,2 there is a variety of recent developments worth noting.
Global Governance bezeichnet ein produktives Zusammenwirken aller an einer effizienten und legitimen Lösung von grenzüberschreitenden Sachproblemen ernsthaft interessierten Akteure. Es handelt sich weder um Multilateralismus noch um Unilateralismus, sondern um eine Koalition des Weltbürgertums. Auf dem Gebiet des privaten Wirtschaftsrechts gibt es zwei Beispiele für von solchen zivilgesellschaftlichen Koalitionen geschaffene Regimes, anhand derer die Funktionsweise transnationaler Rechtssysteme aufgezeigt werden kann. Dabei handelt es sich einerseits um das Recht der Handelsverträge, wo bereits seit geraumer Zeit die Entstehung einer neuen Lex Mercatoria diskutiert wird (I.). Andererseits bildet die von ICANN errichtete Uniform Dispute Resolution Policy für Domain-Namen ein gutes Beispiel für die Entstehung eines transnationalen Markenrechts im Wege der Co-Regulierung (II.). In beiden Fällen ist unter Juristen umstritten, ob es sich überhaupt um Rechtsphänomene, geschweige denn um (autonome) Rechtssysteme handelt. Wie der Konflikt zwischen Traditionalisten und Transnationalisten in der seit gut vierzig Jahren andauernden Debatte um die Lex Mercatoria zeigt, ist diese Frage auf der strukturellen Normebene nicht zu lösen. Es erscheint deshalb als sinnvoll, sich dem Phänomen transnationaler Zivilregimes zunächst unter Verwendung sozialwissenschaftlicher Kriterien beschreibend zu nähern, bevor in einem dritten Schritt gezeigt wird, wie man die Emergenz transnationaler Zivilregimes im Rahmen einer auf operativer Ebene ansetzenden Theorie des Rechts als autopoietisches Kommunikationssystem auch rechtstheoretisch in den Griff bekommen kann (III.). Die folgenden Ausführungen orientieren sich dabei an den von Zangl und Zürn entwickelten Begriffen der Verrechtlichung und Konstitutionalisierung, weil diese eine Beschreibung anhand der der quantitativen Kategorien des Mehr oder Weniger anstelle des juristischen Alles oder Nichts (Recht/Nicht-Recht) ermöglichen.
Vor gut einem Jahr ist im Archiv für die civilistische Praxis ein Aufsatz erschienen, in welchem ich mich mit den Perspektiven des Verbrauchervertragsrechts nach der Schuldrechtsreform auseinandergesetzt habe. Der leicht provozierende Unterton der dort vorgetragenen Kritik hat nun nicht nur – wie beabsichtigt – den einen oder anderen Leser zum Lachen verführt, sondern offensichtlich auch Irritationen bezüglich der Richtung hervorgerufen, in die der Verbraucherschutzzug in Zukunft fahren soll: zurück in die Siebziger Jahre und – nach erneutem Schlagen vergangener Schlachten – ins bürgerliche Formalrecht des 19. Jahrhundert? Oder was soll mit dem Stichwort "Prozedurales Verbrauchervertragsrecht" gemeint sein? Ich möchte an dieser Stelle einen Präzisierungsversuch unternehmen.
Das Prinzip Global Governance könnte man wie folgt formulieren: Auf dem Weg zur Lösung der drängenden Probleme der Weltgesellschaft ist jedes Mittel recht, sofern es zu einer effektiven und legitimen Regelung von Sachfragen beitragen kann. Wenn Global Governance auf das Zusammenwirken von internationalen Organisationen, transnationalen Unternehmen und Zivilgesellschaft durch Erarbeitung von globalen Standards (Principles, Guidelines, Codes of Conduct) und deren Umsetzung im Wege der von einer Weltöffentlichkeit kontrollierten Selbstbindung setzt, so kommt darin auch der Unmut der Beteiligten über den Zustand internationaler Verrechtlichung zum Ausdruck. Transnationales Regieren als Alternative bedient sich vornehmlich informeller Steuerungsformen, deren Einsatz zwangsläufig die Frage nach der Effektivität und Legitimität von Global Governance auslöst. Täuschen gesellschaftlich nicht ausreichend legitimierte mächtige Akteure mit der Selbstbindung an Soft-Law nicht bloß Aktivität vor, um eine formal verbindliche internationale Verrechtlichung zu verhindern? So könnte man in Erinnerung an nationale Debatten zum Dauerthema "Selbstregulierung vs. staatliche Regulierung" fragen. In Abwesenheit eines Weltstaates fällt die Gewichtung der Argumente auf globaler Ebene freilich anders aus, da Selbstregulierung besser als gar keine Regulierung ist. Es bleibt aber die Frage, ob das Ergebnis von transnationalem Regieren immer nur in "unverbindlichem" und deshalb "ineffektivem" Soft-Law bestehen muss, oder ob auch nichtstaatliche Akteure in der Lage sind, funktionale Äquivalente zum staatlichen Recht ("Hard Code") zu produzieren. Gibt es also ein "selbst geschaffenes Recht der globalen Zivilgesellschaft" (Teubner 2000; Calliess 2003)? Am Beispiel der Lex Mercatoria, dem transnationalen Recht der grenzüberschreitenden Handelsverträge, soll im Folgenden gezeigt werden, unter welchen Bedingungen private Selbstregulierung auf globaler Ebene nicht nur effektiv, sondern auch legitim sein kann. In einem ersten Schritt wird die Problemlage erläutert, vor deren Hintergrund sich die Entstehung der Lex Mercatoria als Reaktion auf ein Versagen des nationalen und internationalen Rechts der grenzüberschreitenden Handelsverträge verstehen lässt. Sodann wird analysiert, wie in der internationalen Handelsschiedsgerichtsbarkeit durch Zusammenwirken von Spruchpraxis, Privatkodifikationen und kommunikativer Vernetzung über Internet-Datenbanken "Hard Code" entsteht, um schließlich Rückschlüsse auf den Grad der Verrechtlichung und Konstitutionalisierung der Lex Mercatoria zu ziehen.
In the early Nineties the Hague Conference on International Private Law on initiative of the United States started negotiations on a Convention on the Recognition and Enforcement of Foreign Judgments in Civil and Commercial Matters (the "Hague Convention"). In October 1999 the Special Commission on duty presented a preliminary text, which was drafted quite closely to the European Convention on Jurisdiction and Enforcement of Judgments in Civil and Commercial Matters (the "Brussels Convention"). The latter was concluded between the then 6 Member States of the EEC in Brussels in 1968 and amended several times on occasion of the entry of new Member States. In 2000, after the Treaty of Amsterdam altered the legal basis for judicial co-operation in civil matters in Europe, it was transformed into an EC Regulation (the "Brussels I Regulation"). The 1999 draft of the Hague Convention was heavily criticized by the USA and other states for its European approach of a double convention, regulating not only the recognition and enforcement of judgments, but at the same time the extent of and the limits to jurisdiction to adjudicate in international cases. During a diplomatic conference in June 2001 a second draft was presented which contained alternative versions of several articles and thus resembled more the existing dissent than a draft convention would. Difficulties to reach a consensus remained, especially with regard to activity based jurisdiction, intellectual property, consumer rights and employee rights. In addition, the appropriateness of the whole draft was questioned in light of the problems posed by the de-territorialization of relevant conduct through the advent of the Internet. In April 2002 it was decided to continue negotiations on an informal level on the basis of a nucleus approach. The core consensus as identified by a working group, however, was not very broad. The experts involved came to the conclusion that the project should be limited to choice of court agreements. In March 2004 a draft was presented which sets out its aims as follows: "The objective of the Convention is to make exclusive choice of court agreements as effective as possible in the context of international business. The hope is that the Convention will do for choice of court agreements what the New York Convention of 1958 has done for arbitration agreements." In April 2004 the Special Commission of the Hague Conference adopted a Draft "Convention on Exclusive Choice of Court Agreements", which according to its Art. 2 No. 1 a) is not applicable to choice of court agreements, to which a natural person acting primarily for personal, family or household purposes (a consumer) is a party". The broader project of a global judgments convention thus seems to be abandoned, or at least to be postponed for an unlimited time period. There are - of course - several reasons why the Hague Judgments project failed. Samuel Baumgartner has described an important one as the "Justizkonflikt" between the United States and Europe or, more specifically Germany. Within the context of the general topic of this conference, that is (international) jurisdiction for human rights, in the remainder of this presentation I shall elaborate on the socio-cultural aspects of the impartiality of judgments and their enforcement on a global scale.
In dieser Studie werden die Wirkungen von Arbeitsbeschaffungsmaßnahmen (ABM) in Deutschland auf die individuellen Eingliederungswahrscheinlichkeiten der Teilnehmer in reguläre Beschäftigung evaluiert. Für die Untersuchung wird ein umfangreicher und informativer Datensatz aus den Datenquellen der Bundesagentur für Arbeit (BA) verwendet, der es ermöglicht, die Wirkungen der Programme differenziert nach individuellen Unterschieden der Teilnehmer und mit Berücksichtigung der heterogenen Arbeitsmarktstruktur zu untersuchen. Der Datensatz enthält Informationen zu allen Teilnehmern in ABM, die ihre Maßnahmen im Februar 2000 begonnen haben, und zu einer Kontrollgruppe von Nichtteilnehmern, die im Januar 2000 arbeitslos waren und im Februar 2000 nicht in die Programme eingetreten sind. Mit Hilfe der Informationen der Beschäftigtenstatistik ist es hierbei erstmals möglich, den Abgang in reguläre Beschäftigung auf Grundlage administrativer Daten zu untersuchen. Der vorliegende Verbleibszeitraum reicht bis Dezember 2002. Unter Verwendung von Matching-Methoden auf dem Ansatz potenzieller Ergebnisse werden die Effekte von ABM mit regionaler Unterscheidung und für besondere Problem- und Zielgruppen des Arbeitsmarktes geschätzt. Die Ergebnisse zeigen zwar deutliche Unterschiede in den Effekten für Subgruppen, insgesamt weisen die empirischen Befunde jedoch darauf hin, dass das Ziel der Eingliederung in reguläre ungeförderte Beschäftigung durch ABM weitgehend nicht realisiert werden konnte. JEL: C40 , C13 , J64 , H43 , J68
In dieser Studie werden die Wirkungen von Arbeitsbeschaffungsmaßnahmen (ABM) in Deutschland auf die individuellen Eingliederungswahrscheinlichkeiten der Teilnehmer in reguläre Beschäftigung evaluiert. Für die Untersuchung wird ein umfangreicher und informativer Datensatz aus den Datenquellen der Bundesagentur für Arbeit (BA) verwendet, der es ermöglicht, die Wirkungen der Programme differenziert nach individuellen Unterschieden der Teilnehmer und mit Berücksichtigung der heterogenen Arbeitsmarktstruktur zu untersuchen. Der Datensatz enthält Informationen zu allen Teilnehmern in ABM, die ihre Maßnahmen im Februar 2000 begonnen haben, und zu einer Kontrollgruppe von Nichtteilnehmern, die im Januar 2000 arbeitslos waren und im Februar 2000 nicht in die Programme eingetreten sind. Mit Hilfe der Informationen der Beschäftigtenstatistik ist es hierbei erstmals möglich, den Abgang in reguläre Beschäftigung auf Grundlage administrativer Daten zu untersuchen. Der vorliegende Verbleibszeitraum reicht bis Dezember 2002. Unter Verwendung von Matching-Methoden auf dem Ansatz potenzieller Ergebnisse werden die Effekte von ABM mit regionaler Unterscheidung und für besondere Problem- und Zielgruppen des Arbeitsmarktes geschätzt. Die Ergebnisse zeigen zwar deutliche Unterschiede in den Effekten für Subgruppen, insgesamt weisen die empirischen Befunde jedoch darauf hin, dass das Ziel der Eingliederung in reguläre ungeförderte Beschäftigung durch ABM weitgehend nicht realisiert werden konnte. JEL: C40 , C13 , J64 , H43 , J68
Das Bankgeheimnis stellt weder ein absolutes Verbot der Weitergabe kundenbezogener Informationen noch ein Verbot der Abtretung von Forderungen gegen Kunden dar. Die aus dem Bankgeheimnis folgende Pflicht zur vertraulichen Behandlung von Informationen über Kunden wird ihrerseits durch immanente Grenzen beschränkt, soweit es die Ausübung von Gläubigerrechten der Bank in Frage steht. Eine Veräußerung und Abtretung von Forderungen und die dafür notwendige Weitergabe der Kundendaten wird daher durch das Bankgeheimnis nicht ausgeschlossen. Das Bankgeheimnis verpflichtet die Bank allerdings dazu, bei der Ausübung ihrer Gläubigerrechte die Vertraulichkeit der Informationen über die Geschäftsbeziehung so weit wie nur möglich zu wahren. Weitergehende Schranken zieht auch das Datenschutzrecht der Verwaltung und Verwertung von Forderungen durch die Bank nicht.
Anmerkungen zum Urteil des BGH vom 24. November 2003, II ZR 171/01 : Das Urteil des BGH vom 24. 11. 2003 verschärft das Recht der Kapitalerhaltung empfindlich. Der Leitsatz, Kreditgewährungen an Gesellschafter, die nicht aus Rücklagen oder Gewinnvorträgen, sondern zu Lasten des gebundenen Vermögens der GmbH erfolgen, sind auch dann grundsätzlich als verbotene Auszahlung von Gesellschaftsvermögen zu bewerten, wenn der Rückzahlungsanspruch gegen den Gesellschafter im Einzelfall vollwertig sein sollte und die zugehörigen Urteilsgründe lassen erhebliche Auswirkungen nicht nur auf das Finanzierungsgebaren kleiner Gesellschaften, um die es in dem vom BGH entschiedenen Fall ging, sondern auch auf die Möglichkeiten der Innenfinanzierung großer Konzerne befürchten.
Das neue Insiderrecht
(2004)
Mit Inkrafttreten von Art. 1 des Gesetzes zur Verbesserung des Anlegerschutzes (Anlegerschutzverbesserungsgesetz - AnSVG) am 30. Oktober 2004 hat das WpHG zahlreiche Änderungen erfahren. Die nachfolgenden Ausführung gehen anhand einiger ausgewählter Beispiel der Frage nach, inwieweit die Marktmißbrauchsrichtlinie und ihre Umsetzung durch das AnSVG das bisher geltende Insiderrecht geändert haben. Vorab sei bemerkt, daß die Aufgabe, das neue Recht einigermaßen zutreffend zu interpretieren, durch die Besonderheiten des Rechtssetzungsverfahrens, das schließlich in die Neufassung des WpHG eingemündet ist, nicht gerade erleichtert wird: Die europarechtlichen Vorgaben finden sich nicht mehr nur in einer einzigen Richtlinie, sondern sind aufgrund des Komitologieverfahrens über zahlreiche Rechtsakte verteilt. Für das Insiderrecht sind neben der Marktmißbrauchsrichtlinie mehrere Durchführungsrichtlinien und eine Verordnung der Kommission von Bedeutung, für deren Verständnis wiederum die CESR-Vorschläge zusätzliche Anhaltspunkte bieten. Da schon die deutsche Fassung der Richtlinien in etlichen Punkten von den jeweiligen englischen Version und das WpHG wiederum nicht selten von den Richtlinien abweicht, entsteht bisweilen eine Art "stille Post"-Effekt, der es noch mehr als schon bislang notwendig macht, sich bei der Auslegung der Begriffe des WpHG zu vergewissern, ob sich die Umsetzung durch den deutschen Gesetzgeber innerhalb des europarechtlichen Rahmens bewegt. Insbesondere auf der Sanktionenseite ist das nicht durchweg der Fall.
Rezension zu Joachim Höppner/Waltraud Seidel-Höppner: Etienne Cabet und seine Ikarische Kolonie. Sein Weg vom Linksliberalen zum Kommunisten und seine Kolonie in Darstellung und Dokumentation. Schriftenreihe der Internationalen Forschungsstelle "Demokratische Bewegungen in Mitteleuropa 1770-1850", Bd. 33. Frankfurt/M.: Peter Lang, 2002.
Der Titel "Portrayed on the Heart" von Cynthia Hahns vorliegender Publikation bezieht sich auf jene von Gregor den Großen formulierte didaktische Funktion von bildlichen Darstellungen, deren Verinnerlichung gleichsam auf eine Vervollkommnung des Menschen zielte. Dieser Aufgabe war auch die bildliche Hagiographie des Mittelalters verpflichtet, "in inducing a movement beyond words and images - in creating an effect on the soul." (S. 331) Die Frage, welche Bildstrategien entwickelt wurden, um von der Heiligkeit der dargestellten Person zu überzeugen, und wie die Bildrhetorik auf die Wahrnehmung von Heiligkeit Einfluß zu nehmen vermochte, versucht sie am Beispiel der illuminierten "libelli" des 10. bis 13. Jahrhunderts zu beantworten. Diese Handschriften stellten aufgrund ihres Bildprogramms eine eigene Gruppe innerhalb der oft auch schmucklosen "libelli" dar, welche verschiedene hagiographische Texte zur Verehrung eines Heiligen, wie die Vita, das Offizium, Hymnen und Gebete, enthielten. Die in "Portrayed on the Heart" analysierten "libelli" geben der Autorin die Möglichkeit, ihre bisher in verschiedenen Aufsätzen veröffentlichen Erkenntnisse zum Thema von Hagiographie und Bildnarration zu synthetisieren sowie Wesen und Stellenwert von Heiligkeit im frühen und hohen Mittelalter aus mediävistischer Perspektive theoretisch zu hinterfragen. In diesem Sinne stellt das Buch eine anspruchvolle Einführung in das Forschungsfeld mittelalterlicher Heiligkeit dar. ...
Zeitungsberichte im Alltagsgespräch : Mediennutzung, Medienwirkung und Kommunikation im Kaiserreich
(2004)
Der Artikel untersucht Mediennutzung und Medienwirkung im Kaiserreich. Er prüft anhand von Polizeiberichten, die heimlich in Kneipen angefertigt wurden, ob und wie Unter- und Mittelschichten über die Zeitungsmeldungen kommunizierten. Eine Analyse von Gesprächen über ausgewählte Skandale ergänzt und vertieft diesen Fokus, der in Beziehung zu unterschiedlichen Ansätzen der Medienwirkungsforschung gesetzt wird. Als Hauptergebnis lässt sich für die Jahrzehnte um 1900 eine starke Medienwirkung ausmachen. Die Kneipengäste griffen schnell und ausführlich Medienthemen auf und entwickelten daraus politische Gespräche. Alle geprüften Skandalfälle fanden sich in verschiedenen Unterhaltungen wieder. Aus den Spitzelberichten lassen sich erstaunlich detaillierte Kenntnisse bei den Mediennutzern nachweisen, selbst wenn die Ereignisse nicht unmittelbar ihrer Lebenswelt nahe standen. Insbesondere die Arbeiter übernahmen zwar häufig Positionen aus der sozialdemokratischen Presse, zeigten dabei aber zugleich eine eigensinnige Aneignung. Die Zeitungsmeldungen wurden mit persönlichen Erfahrungen verbunden, spielerisch-humorvoll gewendet oder mit emotionalen Affekten übersteigert.
[Rudolf Schenda] sah in [der Volksaufklärung] die Ursache für die "äußerst schleppende Bildungsentwicklung des 19. Jahrhunderts, die noch heute stark fortwirkt"; keine geistige Revolution stelle sie dar, sondern lediglich "ein klägliches Gefecht gegen den zähen Brei jahrhundertealter Unbildung". Dieses Gefecht, so wissen wir inzwischen, wurde besonders mittels des geschriebenen und gedruckten Wortes geführt. Mehrere tausend Schriften wandten sich an das leseunwillige Volk, hunderte von Zeitungen und Zeitschriften wurden für einfache Leser geschrieben, und zahllose Autoren zerbrachen sich den Kopf, auf welchen Wegen alle diese Druckerzeugnisse an den anvisierten neuen Adressaten zu bringen seien. Aus diesen Diskussionen, aus dieser neu erschlossenen Literatur insgesamt läßt sich heute ein differenziertes Bild einer Reformbewegung zeichnen, die die ersten Schritte hin zu einer allgemeinen und gleichen Bildung tat. Diese Bemühungen sind voller Widersprüche, Unentschlossenheiten und Unschlüssigkeiten, doch stellen sie die erste Infragestellung des Bildungsprivilegs der oberen Stände dar.
Wie Schrift und Bild im Verhältnis zur Imaginatio stehen, will ich untersuchen. Dabei kommt ein weiteres Verhältnis ins Spiel, nämlich das zum Körper. "Bilder denken" im Sinne von imagines agentes heißt nicht, bloße Vorstellungen von etwas ohne Gegenwart eines Gegenstandes im Kopf haben, wie Kant die Einbildungskraft im Unterschied zur Anschauung definiert. Agent, also aktiv, ergreifend, handlungsauslösend zu sein –: dies heißt mehr, nämlich daß Bilder inkorporiert werden und körperliche Erregungen, Veränderungen oder Handlungen auslösen. Das ist die Performanz der Bilder. Diese körperliche Spur der Bilder, ja, das Einspuren des Körpers durch Bilder ist die energischste Form, in der Erinnerungen inskribiert werden, und die energischste Form, in der Bilder zur Resonanz von Körpern und Körper zur Resonanz von Bildern werden können.
This paper deals with Kant’s differentiation between artistic beauty and the sublime in nature. In this latter, Kant subsumes everything wild, uncultivated, inanimate and makes it – apparently – available to Aesthetics. As the quintessence of resistence, the "stone" stands for everything that remains the most estranged from the human sphere. In texts of Romantic authors such as Novalis, it can be seen how the "stone" in its turn takes possession of human beings and move them away from human nature. From Romanticism up to contemporary art, the sublime establishes thus a dominion of total alterity, which evades control and keeps consciousness alert to the fact that also in human beings there is an uncontrollable element demanding its rights.
Vortrag an der "Die Lebendigkeit kritischer Gesellschaftstheorie", einer Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno, die am 4. - 6. Juli 2003 an der Johann Wolfgang Goethe-Universität in Frankfurt am Main statfand. Koordiniert von Prof. Dr. Andreas Gruschka und Prof. Dr. Ulrich Oevermann. Die Tagungsbeiträge können auch auf CD (je CD ein Vortrag) oder als DVD (alle Vorträge im MP3-Format) käuflich erworben werden. S.a. "Die Lebendigkeit der kritischen Gesellschaftstheorie", herausgegeben von Andreas Gruschka und Ulrich Oevermann. Dokumentation der Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno. Büchse der Pandora 2004, ISBN 3-88178-324-5
Die thrombotisch thrombozytopenische Purpura (TTP) ist ein schweres, heterogenes Syndrom, bei welchem es zu einer lebensbedrohlichen, disseminierten Mikrothrombosierung in den arteriellen Kapillaren kommt. Bei Patienten mit TTP wurde 1997 erstmalig ein Mangel an der Von Willebrand Faktor (VWF)-spaltenden Protease entdeckt. Diese Protease wurde 2001 als ein neues Mitglied der "a disintegrin and metalloprotease with thrombospondin motifs"-Familie identifiziert und als ADAMTS-13 bezeichnet. Der ADAMTS-13-Mangel soll eine Anreicherung großer VWF-Multimere verursachen, welche für die pathologische Thrombenbildung bei Patienten mit TTP verantwortlich gemacht wird. Im Rahmen der vorliegenden Arbeit wurde zunächst ein neuartiges Verfahren zur Bestimmung der ADAMTS-13-Aktivität entwickelt. Mittels des neuen Verfahrens wurde die Bedeutung von ADAMTS-13 in der Pathophysiologie der erworbenen TTP und in der Genese anderer Erkrankungen untersucht. Bei der hier entwickelten Methode wird eine beliebige Testprobe mit einem ADAMTS-13-freien VWF-Substrat versetzt und nach entsprechender Inkubation die ADAMTS-13-Aktivität ermittelt, indem der Abfall der VWF-vermittelten Aggregation von Thrombozyten gemessen wird. Das neuartige Verfahren zeigt eine gute Reproduzierbarkeit und wurde durch extensiven Vergleich mit der herkömmlichen Immunoblotting-Methode validiert. Zudem wurde die Richtigkeit der Methode durch erfolgreiche Teilnahme an einer internationalen Multicenterstudie bestätigt. Die neue Methode ist im Gegensatz zu den herkömmlichen Verfahren im klinisch-diagnostischen Routinelabor anwendbar, da das Verfahren auf der Verwendung eines routineerprobten, automatisierten Testes zur Bestimmung der VWF:Ristocetin-Kofaktor-Aktivität beruht. Der Test ist bei hohem Probendurchsatz schnell und einfach durchführbar und benötigt keine spezielle Laborausrüstung oder besondere Expertise. In den untersuchten Patientenkollektiven war der schwere ADAMTS-13-Mangel mit einer Spezifität von 100% und einer Sensitivität von 89% mit einer akuten TTP korreliert. Bei 85% der Plasmaproben mit hochgradig erniedrigter ADAMTS-13-Aktivität konnte in vitro eine inhibitorische Aktivität gegen ADAMTS-13 detektiert werden. Die Plasmapherese-Therapie (PP-Therapie) führte in 75% der untersuchten TTP-Episoden zu einer letztendlichen Eliminierung des Inhibitors mit einer korrespondierenden Erhöhung der ADAMTS-13-Aktivität. Der Anstieg der ADAMTS-13-Aktivität war in diesen Fällen eng mit dem Anstieg der Thrombozyten assoziert. In 15% der untersuchten Episoden führte die PP-Therapie zu einer Erniedrigung des Inhibitortiters ohne messbare Rekonstitution der ADAMTS-13-Aktivität. Bei 10% der untersuchten Episoden kam es unter PP-Therapie zu einem permanenten Anstieg des Inhibitortiters. Trotz fehlender Rekonstitution der ADAMTS-13-Aktivität in den letztgenannten Fällen induzierte die PP-Therapie eine klinische Remission. Zwei Patienten zeigten nach Splenektomie bzw. Rituximab-Gabe ohne nachweisbare Rekonstitution der ADAMTS-13-Aktivität ebenfalls eine konsistente, klinische Remission. Die Ergebnisse zeigen, dass die in vitro gemessene ADAMTS-13-Aktivität die pathophysiologisch wirksamen Prozesse der akuten TTP nicht immer eindeutig erklären. Dies weist auf bislang unentdeckte pathogene Mechanismen hin. Zudem könnten die derzeit gängigen Methoden zur Bestimmung der ADAMTS-13-Aktivität (einschließlich des hier entwickelten Verfahrens) die tatsächliche in vivo VWF-Proteolyse durch ADAMTS-13 nicht ausreichend widerspiegeln. Die Ergebnisse dieser Arbeit zeigen, dass ein ADAMTS-13-Mangel als ein Risikofaktor, und nicht als der alleinige Auslöser, für die akute TTP betrachtet werden sollte. Die Bestimmung der ADAMTS-13-Aktivität bei den unterschiedlichsten hämatologischen Erkrankungen offenbarte eine moderat erniedrigte ADAMTS-13-Aktivität in einer Vielzahl von schweren, zumeist intensivpflichtigen Erkrankungen. Bei einigen Patienten konnte nachgewiesen werden, dass sich die ADAMTS-13-Aktivität in Remission normalisiert. Daraus lässt sich möglicherweise vermuten, dass sich die ADAMTS-13-Aktivität generell bei einer Akut-Phasen-Reaktion erniedrigt. Die Untersuchungen der ADAMTS-13-Aktivität bei Patienten mit malignen Erkrankungen zeigte bei 21% der getesteten Patienten einen milden ADAMTS-13 Mangel. Bei den untersuchten Patienten mit Hirn- und Prostatatumoren konnte, im Gegensatz zu vorhergehenden Studien mit anderen Tumortypen, keine Korrelation zwischen erniedrigter ADAMTS-13-Aktivität und dem Grad der Malignität bzw. der Dissemination des Tumors gefunden werden. Die Bestimmung der ADAMTS-13-Aktivität bei einem umfangreichen Patientenkollektiv mit thromboembolischen Erkrankungen zeigte, dass der ADAMTS-13 Mangel kein häufig vorkommender Risikofaktor für das Auftreten von arteriellen oder venösen Thrombosen darstellt. In der vorliegenden Studie wurde jedoch der weltweit erste Fall eines milden, congenitalen ADAMTS-13 Mangels bei einer Patientin mit familiären, rezidivierenden, ischämischen Schlaganfällen gefunden. Zusammenfassend wurde in der vorliegenden Arbeit ein neuartiges Verfahren zur Bestimmung der VWF-spaltenden Proteaseaktivität von ADAMTS-13 entwickelt, welchem durch seine klinische Anwendbarkeit in Zukunft eine weitreichende Bedeutung zufallen könnte. Die klinischen Studien dieser Arbeit belegen zum einen den Zusammenhang zwischen ADAMTS-13 und TTP und weisen zum anderen auf andere bislang nicht identifizierte Mechanismen hin, welche das klinische Bild der TTP determinieren. Des weiteren konnte im Rahmen dieser Arbeit gezeigt werden, dass ADAMTS-13 neben einer Beteiligung an der Akut-Phasen-Reaktion, eine möglicherweise sehr bedeutsame Rolle bei malignen und thromboembolischen Erkrankungen spielt. Dies sollte in zukünftigen Studien, insbesondere im Hinblick auf neuartige therapeutische Möglichkeiten durch die Gabe von ADAMTS-13, näher untersucht werden.
Ich möchte im Folgenden [...] keineswegs versuchen, Goethes Weltliteraturbegriff für die gegenwärtigen geopolitischen Ordnungsstrukturen von Literatur in Anspruch zu nehmen und ihn [...] zu revitalisieren. Vielmehr will ich ihn in paradigmatischer Weise dazu benützen, um einige theoretische Grundprobleme und Argumentationsmuster in den kulturtopographischen Verortungsbemühungen der Literatur zu erörtern und mit der zeitgenössischen Theoriediskussion zu kontrastieren. Ich gehe zunächst so vor, dass wir uns über die wichtigsten Zeugnisse Goethes zum Weltliteraturbegriff anhand der Tischvorlage einen systematisierenden Überblick zu verschaffen suchen. Dadurch werden zugleich Grundmuster der allgemeinen Verortungsdiskussion von Literatur sichtbar. Diese sollen dann anschliessend auf die in der gegenwärtigen Theoriediskussion dominanten Modelle hin projiziert und verlängert werden. Meine Ausführungen wollen aber nicht im Sinne der Darlegung abgeschlossener Erkenntnisse verstanden werden, sondern dienen als Überlegungsangebote für eine anschliessende Diskussion.
Die Erzählung von den "mehreren Wehmüllern" hat bisher in der Brentanoforschung wenig Beachtung gefunden, und im weitern Umkreis der Literatur zur Romantik, wo sie nicht zuletzt des zentralen Doppelgängermotivs wegen an einen der fundamentalen romantischen Themen- und Motivkreise anschließbar wäre, stieß sie ebenfalls auf geringes Interesse.[...] Was die Erzählung aber trotzdem für eine sozialgeschichtliche Analyse höchst ergiebig macht, ist die Art und Weise, wie Brentano darin über die Doppelgängerschaft der Hauptfigur die Sphären familialer Liebe und Sexualität, zweckrationaler Ökonomie und Ästhetik in ihren wechselseitigen Beziehungen problematisiert. Denn dabei trifft er einen dem Entfremdungsphänomen vergleichbaren zentralen Konfliktherd in der Organisationsstruktur der modernen bürgerlichen Gesellschaft und legt ihn in seiner neuralgischen Verwundbarkeit bloß. Dies soll im folgenden skizziert werden.
In der vorliegenden Studie sollte untersucht werden, ob es möglich sei, die Stimmung eines Menschen nur anhand der Stimme einzuschätzen und ob daraus ein neues diagnostisches Mittel resultieren könne. Dazu wurden die Stimmen von 20 ambulanten und stationären Patienten und 4 gesunden Probanden in verschiedenen Stimmungslagen aufgezeichnet und mittels CD 91 Zuhörern (Ratern) präsentiert. Anhand der Stimme sollten die Zuhörer ihre Beurteilung über die Stimmung der Testpersonen auf eine Visuelle- Analog- Skala (VAS) eintragen. Diese Einschätzung wurden mit den Ergebnissen der standardisierten Befindlichkeitsmessungen des Hamilton - Scores ( Fragebogen zur Untersuchung von Depressivität ), der Hell-Dunkel-Skala (Optische Darstellung der Gemütslage) und dem Befindlichkeitstests nach v. Zerrsen (Selbstbeobachtungsfragebogen zur Befindlichkeit ) verglichen. Zusammenfassend kann gesagt werden, daß: • anhand der Stimme depressive Menschen von gesunden Menschen unterschieden werden können, aber eine Einteilung der Schwere der Depressivität in der Mehrzahl der Fälle nicht gelingt. Menschen, deren Stimmungslage „nur“ gedrückt ist, werden meist zu depressiv bewertet. Die Korrelationsergebnisse zwischen Stimmeinschätzung und standardisierter Befindlichkeitsmessung lagen unter den Ergebnissen, die sich aus dem Vergleich zwischen den standardisierten Testverfahren ergaben. • Zwischen den Berufsgruppen ergaben sich keine signifikanten Unterschiede. In der Gruppe der medizinischen Berufe zeigte sich die Tendenz, daß Psychiater, sowie Ärzte ohne psychiatrische Ausbildung und Krankenpfleger, die in der Psychiatrie tätig sind insgesamt am besten bewerteten. Personen ohne medizinische Erfahrung mit Abitur bewerten jedoch besser als die eben genannten Berufsgruppen. • Einfluß auf den Erfolg der Stimmeinschätzung : haben die individuelle Begabung und das Bildungsniveau des Raters. Weniger Einfluß als erwartet nimmt die Erfahrung auf dem medizinisch – psychiatrischen Gebiet. Die Fähigkeit der richtigen Stimmeinschätzung sinkt mit der Anzahl der Stimmproben. Die Grenze liegt bei 3 Aufnahmen. • Keinen Einfluß auf den Erfolg der Stimmeinschätzung : nahm Geschlecht, Alter und Selbsteinschätzung der eigenen psychiatrisch – psychologischen Erfahrungen der Rater. Diagnose, Hamd-Score und das Kennen der einzuschätzenden Patienten nahmen ebenfalls keinen Einfluß. Die allgemeine Anwendung der subjektiven Stimmeinschätzung im klinischen Alltag ist nur eingeschränkt anwendbar und führt zu individuell unterschiedlichen Erfolgen. Sie kann als Ergänzung angesehen werden, wird aber sicherlich keine der standardisierten Befindlichkeitsmessungen ersetzen können. Letztendlich konnte die Frage nach der Einflußgröße für eine gute Einschätzung der Befindlichkeit anhand der Stimme nicht geklärt werden, welche in weiteren Studien zu untersuchen wäre.
Die seit dem sechsten Nachtrag (September 2002) bekannt gewordenen Ergänzungen und Verbesserungen zum "Namensverzeichnis" sind im siebten Nachtrag zusammengefasst. Neue Ergebnisse zur Taxonomie von Torilis arvensis, Chenopodium und Dysphania, Senecio paludosus und Centaurea stoebe mit Bezug auf Hessen werden besprochen. Ferner sind Hinweise zur Nomenklatur der Orchidaceae, zur Sorbus-latifolia-Gruppe und zu einer Sippe der Weinrosen-Gruppe (Rosa subsectio Rubigineae) angefügt. Neukombination: Dactylorhiza incarnata var. haussknechtii (Klinge) Buttler, combinatio nova.
Reziproke chromosomale Translokationen sind häufig mit Leukämien und Lymphomen assoziiert und gelten in vielen Fällen als Ursache der Erkrankung. Die reziproke Translokation t(4;11) findet man hauptsächlich bei Kleinkindern, die an einer akuten lymphatischen Leukämie erkrankt sind, aber auch bei älteren Patienten mit einer Sekundärleukämie. Die leukämischen Blasten dieser Patienten sind meist gegen konventionelle Therapiekonzepte resistent, was zu einer ungewöhnlich schlechten Prognose führt. Die Chromosomenbande 11q23 ist an einer Vielzahl chromosomaler Translokationen beteiligt. Die dadurch erzeugten reziproken MLL-Fusiongene sind alle mit der Entstehung einer Hochrisikoleukämie korreliert. Für einige der dabei entstehenden Fusionsproteine konnte nach retroviraler Transduktion in hämatopoietische Vorläuferzellen gezeigt werden, dass sie onkogenes Potential besitzen und eine myeloische Leukämie in transgenen oder transienten Mausmodellen initiieren können. Für die Produkte einer Translokation t(4;11) konnte dies bislang nicht erfolgreich untersucht werden. Bei der Translokation t(4;11) werden die beiden Partnergene MLL und AF4 so miteinander verknüpft, dass auf den neu gebildeten Derivatchromosomen zwei Fusionsgene (MLL•AF4 und AF4•MLL) mit einem intakten Leserahmen entstehen. Da man in den leukämischen Blasten im Regelfall beide Fusionstranskripte findet, nehmen wir an, dass beide Genprodukte zur Fehlregulation und Entartung der Zelle beitragen. Um den potentiell onkogenen Wirkmechanismus der t(4;11) Translokation zu untersuchen, wurde ein induzierbares Expressions-System in murinen embryonalen Fibroblasten (MEF) etabliert. Anhand dieses Zellsystems gelang es das potententielle onkogene Potential der Fusionsproteine MLL•AF4 und AF4•MLL, bzw.des Wildtyp AF4 Proteins in Focus Formation Assays sichtbar zu machen. Dabei konnte die Bildung zellulärer Foci eindrucksvoll für das Wildtyp AF4 Protein und das AF4•MLL Fusionsprotein dargestellt werden. Das MLL•AF4 Fusionsprotein war nicht in der Lage den Verlust der Kontaktinhibition und damit Focus-Bildung in den Zellen zu initiieren. Die anschließende Definition des AF4 Wildtyp- und AF4•MLL Fusionsproteins als Proto-/Onkoprotein, führte zu der Arbeitshypothese, dass der Nterminale Bereich des AF4 Proteins (AF4•N) Wachstums-transformierendes Potential besitzt. Aufgrund der vorliegenden Daten und zur genaueren Charakterisierung des AF4 Proteins wurden anschließend Interaktions-Studien mit dem AF4•N Protein durchgeführt, wobei die beiden E3 Ubiquitin Ligasen SIAH1 und SIAH2 als Interaktionspartner des AF4•N Proteins identifiziert wurden. E3 Ubiquitin Ligasen sind wichtige Bestandteile der Ubiquitinylierungs-Maschinerie und der damit verbundenen proteasomalen Degradation. Dabei sind die SIAH Proteine, wie alle E3 Ubiquitin Ligasen, für die Spezifität der Proteasom-abhängigen Degradation verantwortlich, indem sie über ihre Substrat-Binde Domäne im C-Terminus mit den abzubauenden Targetproteinen interagieren. Die spezifische Interaktion der SIAH Proteine mit dem AF4•N Protein konnte in unabhängigen Experimenten sowohl in vitro als auch in vivo bestätigt werden. Durch den Einsatz des Proteasom-Inhibitors MG132 konnte zudem der effiziente, SIAH1-vermittelte und Proteasom-abhängige Abbau von AF4•N demonstriert werden. Mit weiterführenden Experimenten konnte auch für das Wildtyp AF4 Protein und für das AF4•MLL Fusionsprotein eine Regulation der Proteinstabilität über das SIAH1 Protein festgestellt werden. Eine SIAH1-vermittelte Degradation ist jedoch nur auf das AF4•MLL full-length Fusionsprotein beschränkt. Eine proteolytische Spaltung des AF4•MLL Fusionsproteins durch die Protease Taspase1 innerhalb des MLL Fusionsanteils führte zur Bildung eines stabilen der4•N/MLL•C Proteinkomplexes und dessen Akkumulation in den Zellen. Basierend auf diesen Ergebnissen konnte für t(4;11) Translokationen ein erster pathomolekularer Mechanismus zur Leukämie-Entstehung aufgezeigt werden. Dieser beruht im wesentlichen auf der Akkumulation des der4•N/MLL•C Proteinkomplexes, welcher sich der effizienten Kontrolle durch die E3 Ubiquitin Ligase SIAH1 entzieht. Dadurch wird der Wachstums-transformierende AF4•N Proteinanteil in die Lage versetzt sein onkogenes Potential zu vermitteln.
Semi-permanent quadrats, located in the South and Central Western Slopes botanical regions of New South Wales, were assessed to indicate suitable periods of the year to conduct surveys of botanical diversity. The quadrats were located in woodland communities with a generally herbaceous understorey, and subject to a wide range of domestic stock grazing intensities. In the mid to western South Western Slopes (SWS) the greatest number of species was generally recorded in an October survey. The main exception was in degraded areas (low species diversity, high proportion of annual weed species), where similar results were recorded in September and October. In the cooler and wetter eastern SWS a relatively high proportion of species were recorded in October to early December surveys. However, when compared to species totals compiled from multiple assessments in all seasons, or from August to November, a single optimal survey usually recorded only 60–75% of the plant species at a site. Surveys in mid to late summer, autumn and early winter usually recorded less than 50% of the plant species present. The results reflect the prevailing Mediterranean-type climate, and that the ground layer vegetation (primarily comprised of annuals and herbaceous perennials) dominates the species diversity.
Die Darstellung photorealistischer Szenen durch Computer hat in Folge der Entwicklung immer effizienterer Algorithmen und leistungsfähigerer Hardware in den vergangenen Jahren gewaltige Fortschritte gemacht. Täuschend echt simulierte Spezialeffekte sind aus kaum einem Hollywood-Spielfilm mehr wegzudenken und sind zum Teil nur sehr schwierig als computergenerierte Bilder zu erkennen. Aufgrund der Komplexität von lebenden Organismen gibt es allerdings noch kein einwandfreies Verfahren, welches ein komplettes Lebewesen realistisch, sei es statisch oder in Bewegung, mit dem Computer simulieren kann. Im Bereich der Animation sind wirkungsvolle Resultate zu verzeichnen, da das Skelett eines Menschen oder Wirbeltieres durch geeignete Methoden simuliert und Bewegungen damit täuschend echt mit dem Computer nachgebildet werden können. Die Schwierigkeit, eine komplett realistische Visualisierung eines Lebewesens zu erreichen, liegt allerdings in der Darstellung weiterer Strukturen eines Organismus, die zwar nicht direkt sichtbar sind aber dennoch Einfluss auf die sichtbaren Bereiche haben. Bei diesen Strukturen handelt es sich um Muskel- und Fettgewebeschichten. Die Oberfläche von Figuren wird durch Muskeln sowohl in der Bewegung als auch in statischen Positionen deutlich sichtbar verändert. Dieser Effekt wird bisher bei der Visualisierung von Lebewesen nur unzureichend beachtet, was zu den aufgeführten nicht vollständig realistisch wirkenden Ergebnissen führt. Bei der Simulation von Muskeln wurden bis heute verschiedene Muskelmodelle entwickelt, die einen Muskel als Gesamtheit in Hinblick auf seine grundsätzlichen physikalischen Eigenschaften, wie z. B. Kraftentwicklung oder Kontraktionsgeschwindigkeit, sehr gut beschreiben. Viele Effekte des Muskels, die sich hauptsächlich auf einer tiefer liegenden Ebene abspielen, sind bis heute noch nicht erforscht, was folglich auch keine entsprechende Simulation auf dem Computer zulässt. Beschrieben werden die verschiedenen Muskeltypen (Skelett-, glatte und Herzmuskulatur) und Muskelformen (spindelförmige, einfach/doppelt gefiedert, etc.). Des weiteren wird auf die unterschiedlichen Muskelfasertypen (FTO, STO, usw.) mit ihren Eigenschaften und Funktionen eingegangen. Weitere Themen sind der strukturelle Aufbau eines Skelettmuskels, der Kontraktionsmechanismus und die Ansteuerung durch Nervenreize. Im Bereich Biomechanik, also der Forschung nach den physikalischen Vorgängen im Muskel, führte die Komplexität der Struktur und Funktionsweise eines Muskels zu einer ausgedehnten Vielfalt an Forschungsarbeiten. Zahlreiche Effekte, die bei einem arbeitenden Muskel beobachtet werden können, konnten bis heute noch nicht erklärt werden. Die Erkenntnisse, die für diese Arbeit relevant sind, sind jedoch in einem ausreichenden Maße erforscht und durch entsprechende mathematische Modelle repräsentierbar. Die Mechanik, die einem Muskel zugrunde liegt, wird auf diesen Modelle aufbauend beschrieben. Neben den Größen, die im später vorgestellten Modell verwendet worden sind, wird auch auf sonstige für biomechanische Untersuchungen relevante Eigenschaften eingegangen. Weiterhin wird dargestellt, wie verschiedene Kontraktionen (Einzelzuckung, Tetanus) mechanisch funktionieren. Für Muskelarbeit und Muskelleistung werden verschiedene Diagramme vorgestellt, welche die Zusammenhänge zwischen den physikalischen Größen Kraft, Geschwindigkeit, Arbeit und Leistung zeigen. Nach Vorstellung der ISOFIT-Methode zur Bestimmung von Muskel-Sehnen-Eigenschaften werden mathematische Formeln und Gleichungen zur Beschreibung von Kraft-Geschwindigkeits- und Kraft-Längen-Verhältnissen sowie der serienelastischen Komponente und der Muskelaktivierung, die zur Bewegungsgleichung führen, angegeben. Es folgen weitere mathematische Funktionen, welche die Aktivierungsvorgänge unterschiedlicher Muskelkontraktionen beschreiben, sowie das Muskelmodell nach Hill, welches seit vielen Jahren eine geeignete Basis für Forschungen im Bereich der Biomechanik darstellt. Bezüglich der Computergraphik wird ein kurzer Abriss gegeben, wie künstliche Menschen modelliert und animiert werden. Eine Übersicht über verschiedene Methoden zur Repräsentation der Oberfläche von Körpern, sowie deren Deformation unter Berücksichtigung der Einwirkung von Muskeln gibt die State-of-the-Art-Recherche. Neben den Oberflächenmodellen (Starrkörperdeformation, lokale Oberflächen-Operatoren, Skinning, Konturverformung, Deformation durch Keyshapes) werden auch Volumen- (Körperrepräsentation durch Primitive, Iso-Flächen) und Multi-Layer-Modelle (3-Layer-Modell, 4-Layer-Modell) vorgestellt und deren Vor- und Nachteile herausgearbeitet. Eine geeignete Repräsentation der Oberfläche, die Verformungen durch Muskelaktivität einbezieht, wurde durch die Benutzung von Pneus gekoppelt mit der Quaoaring-Technik gefunden. Dieses Verfahren, das auf Beobachtungen aus der Biologie basiert und zur Darstellung von organischen Körpern benutzt wird, ist ausgesprochen passend, um einen Muskel-Sehnen-Apparat graphisch darzustellen, handelt es sich doch hierbei auch um eine organische Struktur. Um die beiden Teilmodelle Simulation und Visualisierung zu verbinden, bietet sich die aus der Biomechanik bekannte Actionline an, die eine imaginäre Kraftlinie im Muskel und der Sehne darstellt. Die bei der Quaoaring-Methode verwendete Centerline, welches die Basis zur Modellierung des volumenkonstanten Körpers ist, kann durch die Kopplung an die physikalischen Vorgänge zu einer solchen Actionline erweitert werden. Veränderungen in der Länge und des Verlaufs der Actionline z. B. durch Muskelkontraktion wirken sich dadurch direkt auf die Form des Muskels aus und die Verbindung zur Visualisierung ist hergestellt.
Information literacy is a mosaic of attitudes, understandings, capabilities and knowledge about which there are three myths. The first myth is that it is about the ability to use ICTs to access a wealth of information. The second is that students entering higher education are information literate because student centred, resource based, and ICT focused learning are now pervasive in secondary education. The third myth is that information literacy development can be addressed by library-centric generic approaches. This paper addresses those myths and emphasises the need for information literacy to be recognised as the critical whole of education and societal issue, fundamental to an information-enabled and better world. In formal education, information literacy can only be developed by infusion into curriculum design, pedagogies, and assessment.
We perform a study of the possible existence of hybrid stars with color superconducting quark cores using a specific hadronic model in a combination with an NJL-type quark model. It is shown that the constituent mass of the non-strange quarks in vacuum is a very important parameter that controls the beginning of the hadron–quark phase transition. At relatively small values of the mass, the first quark phase that appears is the two-flavor color superconducting (2SC) phase which, at larger densities, is replaced by the color-flavor locked (CFL) phase. At large values of the mass, on the other hand, the phase transition goes from the hadronic phase directly into the CFL phase avoiding the 2SC phase. It appears, however, that the only stable hybrid stars obtained are those with the 2SC quark cores.
Der wissenschaftliche Fortschritt in Chemie, Biowissenschaften und Medizin basiert auf den immer detaillierteren Erkenntnissen über die molekularen Prozesse des Lebens. Eine Voraussetzung dafür sind Fortschritte bei den analytischen Methoden, Techniken und Instrumenten. In dem heute zur Verfügung stehendem Instrumentarium spielt die Massenspektrometrie eine zunehmend wichtige Rolle. Wenn aktuell ein neuer Doping-Skandal durch die Presse geht, sind immer massenspektrometrische Techniken im Spiel: Sie ermöglichen den Nachweis von erlaubten und verbotenen Substanzen aller Art – auch Dopingmitteln.
Der Methicillin-resistente Staphylococcus aureus (MRSA) ist ein fakultativ pathogenes Bakterium. Weltweit nehmen Besiedlung und Infektion mit MRSA seit Jahren zu. In Krankenhäusern ist die Prävalenz sehr gut dokumentiert, während in anderen medizinischen Bereichen die Datenlage unzureichend ist. Ziel dieser Studie ist es, die Prävalenz in Alten- und Pflegeheimen und einer Geriatrischen Klinik sowie erstmals in der ambulanten Pflege im Raum Frankfurt am Main zu ermitteln. Außerdem sollen Risikofaktoren für die Besiedlung mit MRSA erkannt sowie die Hygieneempfehlungen für ambulante Pflegebereiche erarbeitet werden. Teilnehmer: Im Zeitraum September 2000 bis April 2001 wurden insgesamt 754 Teilnehmer (596 Patienten und 158 Angehörige des Personals) von 10 ambulanten Pflegediensten, 5 Alten- und Pflegeheimen und einer geriatrischen Rehabilitationsklinik auf eine Kolonisation / Infektion mit MRSA untersucht. Ergebnisse: Insgesamt wurde bei 15 Teilnehmern (14 Patienten + 1 Mitglied des Personals) eine Besiedlung mit MRSA festgestellt. Die Gesamtprävalenz lag in der Patientengruppe bei 2,35%. In der ambulanten Pflege lag die Prävalenz bei 2,70%, in den Altenheimen bei 0,3% und in der Geriatrie bei 8,70%. Die genotypische Charakterisierung der MRSA-Isolate mit Hilfe der Pulsfeld-Gel-Elektrophorese (PFGE) verdeutlichte die Dominanz des „Süddeutschen Epidemiestammes“. In dieser Studie wurden verschiedene Risikofaktoren für die Kolonisation / Infektion signifikant nachgewiesen. Dazu gehören Tracheostomata (OR: 44,69, CI: 8,39 - 237,98), PEG-Sonden (OR: 6,94, CI: 2,16 - 22,32), Blasen-Dauerkatheterisierung (OR: 6,96, CI: 2,59 - 18,73), eine positive MRSA-Anamnese (OR: 24,32; CI: 10,23 –57,77) und Krankenhausaufenthalte in den vergangenen zwei Jahren (OR: 17,63, CI: 3,94 – 78,82). Diskussion: Die Gesamt-Prävalenz in der Patientengruppe liegt im bundesdeutschen Durchschnitt für Altenheime. Die Prävalenz in der ambulanten Pflege ist ähnlich hoch wie in den Altenheimen. Durch die PFGE konnte gezeigt werden, dass es zu keiner epidemischen Streuung eines MRSA-Genotyps in der Geriatrie gekommen ist, sondern verschiedene, jedoch klonal eng verwandte Stämme auftraten. Bei drei Fällen in der Geriatrie kann eine Übertragung von MRSA von Patient zu Patient vermutet werden. In Frankfurt am Main herrscht der „Süddeutsche Epidemiestamm“ vor. Hygieneempfehlungen müssen nicht verschärft, sondern konsequent eingehalten werden. Nur Pflegepersonal mit hohem Ausbildungsniveau und praktisch geschulte pflegende Angehörige sind in der Lage die Kolonisation / Infektion von MRSA noch konsequenter zu verhindern.
Inhalt der vorliegenden Forschungsarbeit ist die Entwicklung und Validierung von Trainingsempfehlungen an jugendliche Basketballspieler für das Konditionstraining. Am Beispiel Basketball wurde das Forschungsziel verfolgt, ein Modell zu erarbeiten, dass die diagnostische Betreuung des Konditionstrainings von jugendlichen Mannschaftssportlern ermöglicht. Die Untersuchung am Institut für Sportwissenschaften (IfS) der Johann Wolfgang Goethe — Universität Frankfurt am Main als Diagnosezentrum erfolgte in Zusammenarbeit mit dem Basketball-Teilzeit-Internat Langen (BTI) als Trainingsinstitution. Die 35 jugendlichen Versuchspersonen waren weibliche und männliche D-und C-Kaderspieler des Hessischen Basketball Verbandes (HBV) und des Deutschen Basketball Bundes (DBB) im Alter von 13 bis 17 Jahren, die zusätzlich zum eigenen Vereinstraining, im BTI zwei- bis dreimal in der Woche individuell trainierten. Das erste Teilziel war die Auswahl einer Merkmalsstichprobe. Dabei mussten die Diagnosemöglichkeiten am IfS genauso wie die zeitlichen und ökonomischen Rahmenbedingungen des BTI-Trainings beachtet werden. Zudem musste eine für den Basketballsport adäquate Auswahl von konditionellen Leistungsfähigkeiten erfolgen, wofür eine detaillierte Betrachtung der Belastungs- und Beanspruchungsanforderungen im Jugendbasketball nötig war. Das entsprechende Literaturstudium deckte erhebliche Forschungsdefizite im Bereich der Belastungsanforderungen auf, was zunächst dazu führte, dass im Rahmen einer ersten Hauptuntersuchung eine Belastungsanalyse von Jugendbasketballspielen durchgeführt wurde. Nach der Entwicklung eines geeigneten wissenschaftlichen Beobachtungsinstruments, wurden allgemeine Spielmerkmale und Spielzeitstrukturen in je 20 Basketballspielen von Jungen- und Mädchenmannschaften der hessischen U16 Jugendoberliga (Saison 1999/00) systematisch beobachtet und ausgewertet. Beobachtungen von individuellen Belastungen und Spielleistungen erfolgten für jedes Geschlecht anhand von jeweils zehn Basketballspielen derselben Leistungs- und Altersklasse. Damit wurden in knapp 830 effektiven Spielminuten na. die zurückgelegten Laufstrecken, Sprunghäufigkeiten und die Anzahl der Ballaufsetzer (Dribbling) sowie die Anzahl von Pass-, Fang- und Wurfaktionen von jugendlichen Basketballspielern während eines Wettkampfspiels quantitativ erfasst. Die Beobachtungsergebnisse wurden in einem Belastungs- und Beanspruchungsprofil der Spielsportart Basketball mit den Ergebnissen von Forschungsarbeiten zur Beanspruchungsstruktur im Basketball zusammengefasst. Dies bildete gemeinsam mit der Analyse der Trainingsmöglichkeiten im BTI die Grundlage bei der Auswahl der zu untersuchenden konditionellen Fähigkeiten (Merkmalsstichprobe) und den dazu passenden Diagnosetests. Verschiedene kraftdiagnostische Testverfahren waren Teil einer ersten Erprobung des Diagnoseverfahrens im Rahmen einer Voruntersuchung, deren Erkenntnisse eine weitere Optimierung des Hauptdiagnoseverfahren möglich machten. Die zweite Hauptuntersuchung bestand aus fünf Diagnoseterminen, die in einem Abstand von sechs Monaten stattfanden. Die Diagnose der 15 ausgewählten Kraft-, Schnelligkeits- und Ausdauerfähigkeiten ermöglichte im Vergleich zu Normwerten eine detaillierte Einschätzung individueller Defizite der Versuchspersonen im Bereich der konditionellen Leistungsfähigkeit. Den Athleten wurde immer dann eine Trainingsempfehlung für einen Bereich ausgesprochen, wenn die individuelle Leistungsfähigkeit unter dem Richtwert lag. Zur Überprüfung der Trainingsergebnisse diente der darauf folgende Diagnosetermin als Ausgangsdiagnose. Anhand der Ergebnisse konnte durch verschiedene merkmalsinterne und merkmals-übergreifende Untersuchungen nachgewiesen werden, dass Leistungsdiagnosen und externe Trainingsempfehlungen durch Trainingsinstitutionen erfolgreich umgesetzt werden können. Damit helfen sie, das Konditionstraining von jugendlichen Mannschaftssportlern individuell zu differenzieren und zeitlich zu ökonomisieren. Dies hat, auch über das Konditionstraining hinaus positive Effekte auf die zeitliche und inhaltliche Gestaltung des Trainings. Es konnten bei allen Diagnosetests signifikante merkmalsinterne und merkmalsübergreifende Unterschiede der Leistungsentwicklungen zwischen Versuchspersonen mit und Versuchspersonen ohne Trainingsempfehlungen nachgewiesen werden, was auf eine erfolgreiche Individualisierung des Trainingsablaufs schließen lässt. Im Rahmen der diagnostischen Betreuung konnten zugunsten der zeitlichen Optimierung von individuellen Trainingsplänen ausreichende Leistungen konserviert werden und bei Versuchspersonen mit Leistungsdefiziten kam es zur Minimierung der Ist-Sollwert-Differenz. Zudem war eine signifikante Leistungshomogenisierung der Trainingsgruppen zu beobachten. Die diagnostische Betreuung ist nicht alleine auf die Diagnose von Leistungszuständen zu reduzieren, sondern umfasst in einem Planungs-, Steuerungs- und Regelungsprozess außerdem die begleitende Beratung der Trainingsinstitution. Das in dieser Forschungsarbeit beschriebene Modell zur diagnostischen Betreuung im Mannschaftsport bietet ein valides Mittel der Trainingssteuerung und ist über den Basketballsport hinaus übertragbar auf andere Mannschaftssportarten.
Aufgrund der raschen Fortschritte in der Entwicklung der Informationstechnologie kann der Staat mit immer geringerem Aufwand immer schwerwiegender in Grundrechte eingreifen. Bei der staatlichen Überwachung der Telekommunikation stehen sich Sicherheits- und Freiheitsinteressen gegenüber. Durch die kontinuierliche Ausweitung der Überwachungsbefugnisse in den vergangenen Jahrzehnten konnten sich die Sicherheitsinteressen immer weiter in den Vordergrund schieben. Inzwischen ist die vorsorgliche Speicherung sämtlicher Telekommunikations-Verkehrsdaten in der Diskussion. Angesichts der allgemeinen Entwicklung hin zu mehr Überwachung, deren Ende nicht absehbar ist, ist es für eine freiheitliche Gesellschaft von größter Bedeutung, ob dem staatlichen Zugriff auf die Telekommunikation in Deutschland rechtliche Grenzen gesetzt sind und welche dies sind. Der Autor beschreibt aus Sicht des Staates, der Bürger und der betroffenen Unternehmen das Konfliktfeld, in dem sich Regelungen über den staatlichen Zugriff auf Telekommunikationsdaten bewegen. Anschließend werden die rechtlichen Anforderungen an staatliche Zugriffe auf Telekommunikationsdaten diskutiert und entwickelt. Hierbei geht der Autor exemplarisch auch darauf ein, ob vorhandene und geplante Regelungen und Verfahren diesen Anforderungen gerecht werden. Vertieft wird die rechtliche Zulässigkeit einer generellen Vorratsspeicherung von Telekommunikations- Verkehrsdaten unter dem Aspekt der Freiheitsgrundrechte und des Gleichheitssatzes erörtert. Der Autor stellt fest, dass eine generelle Vorratsspeicherung von Telekommunikations- Verkehrsdaten aus mehreren Gründen mit dem Grundgesetz und der Europäischen Menschenrechtskonvention unvereinbar ist. Weil diese Unvereinbarkeit insbesondere in der Verdachtsunabhängigkeit einer generellen Verkehrsdatenspeicherung begründet ist, besteht sie unabhängig von der inhaltlichen Ausgestaltung einer solchen Regelung im Einzelnen. Nach Auffassung des Autors liegt keine besondere Dringlichkeitssituation vor, in der die sofortige Einführung einer generellen Verkehrsdatenspeicherung geboten wäre.
Nach der Öffnung der innerdeutschen Grenze konnte auch im Bereich Salzwedel (Altmark) mit der floristischen Erkundung und Kartierung des bislang unzugänglichen Sperrgebietes begonnen werden. Obwohl das nördlich von Salzwedel gelegene Bürgerholz zu den ersten Exkursionszielen gehörte, wurde der Verfasser erst Anfang Mai 1996 auf einen Anemonen-Bestand mit blassgelben Blüten aufmerksam. Da sich die abweichend gefärbten Exemplare inmitten reicher Bestände von Anemone nemorosa und A. ranunculoides befanden, lag die Vermutung nahe, dass es sich um den Bastard A. x lipsiensis G. Beck handeln könnte. Durch im Jahre 2003 vorgenommene Untersuchungen und Vergleiche mit Literaturangaben wurde der intermediäre Charakter dann auch bestätigt. Die Liste der Nachweise des Bastards kann damit um den aktuellen Fundort Bürgerholz bei Salzwedel (MTB 3133/1 Pretzier) erweitert werden.
Entlang des Einsatzes Neuer Medien in der Hochschullehre entstehen neue Anforderungen an die Kompetenzen und Qualifikationen der Hochschullehrenden. Welche Kompetenzen Hochschullehrende zur Planung, Gestaltung, Erstellung und Durchführung netzbasierter Lehrveranstaltungen haben müssen, wird in der deutschsprachigen Literatur erst seit kurzem diskutiert. Gleichzeitig wird zunehmend deutlich, dass die erfolgreiche Einführung neuer Medien in der Lehre nicht ohne eine entsprechende Qualifizierung der Hochschullehrenden und ihrer Mitarbeiterinnen und Mitarbeiter funktionieren kann. Neben hochschuldidaktischen Qualifikationen sind Kompetenzen im Bereich der Planung, Gestaltung und Umsetzung multimedialer Lehrmaterialien notwendig, um eine medienadäquate Nutzung dieser Medien sicherzustellen. Dieser Beitrag beleuchtet, welche Kompetenzen Hochschullehrende in diesem Kontext erwerben müssen, um einen erfolgreichen Medieneinsatz gestalten zu können und welche Aufgaben sie im Bereich des Planungs- und Erstellungsprozesses neuer Medien in der Lehre letztendlich selbst übernehmen.
E-Learning Strategien als Spannungsfeld für Hochschulentwicklung, Kompetenzansätze und Anreizsysteme
(2004)
Dieser Beitrag gibt einen Einstieg in das Thema E-Learning Strategien und zugleich einen Überblick über die Themen, die in den Beiträgen in diesem Band versammelt sind. Anhand der ausführlichen Darstellung der Aspekte, die bei der Strategieentwicklung für den Medieneinsatz zu beachten sind, wird deutlich, in welcher Reihenfolge die hier vorgestellten Beispiele aus Hochschulen zu einem besseren Verständnis für die konzeptionelle und infrastrukturellen Überlegungen im Rahmen einer E-Learning-Gesamtstrategie beitragen. Neben der Einrichtung von Multimedia-Kompetenzzentren und anderen Serviceeinrichtungen sind dies Qualifizierungsangebote, Projektförderungen und begleitende Evaluations- und Beratungsansätze. Der einleitende Beitrag macht zudem deutlich, welche Schritte zur Entwicklung einer solchen Konzeption vorzunehmen, welche Hürden und Aspekte zu beachten sind, um zu einem erfolgreichen, nachhaltigen und geeigneten Medieneinsatz in der Lehre der eigenen Hochschullandschaft zu gelangen und wie Akteure und Zentren frühzeitig in einen solchen Prozess einzubinden sind.
7 Zusammenfassung und Ausblick 7.1 Synthese des PNA-Bausteine Primäres Ziel der Diplomarbeit war die Synthese von 6-Aminochinolin-2(1H)-on (3) und dessen Kupplung über die Carbonsäure (4) mit dem PNA-Grundgerüst (6). ... Das Chinolin (3) wurde durch eine dreistufige Synthese aus para-Phenylendiamin (2) erhalten und als Pikrat gefällt. Über eine Ionenaustauschsäule wurde das Hydrochlorid des Chinolins (3b) gewonnen. Durch Charakterisierung des RNA-Liganden mittels FRET konnte ein IC50-Wert des Chinolin Hydrochlorids (3b) von 46 μmol ermittelt werden. Das kupplungsfähige Essigsäurederivat (4) wurde über den tert-Butylesters (87) des Chinolins (3) gewonnen. ... Die literaturbekannte zweistufige Synthese des PNA-Rückgrats (5) geht vom Ethylendiamin ... 7.2 Synthese des PNA-Monomers Das Ziel die Synthese des PNA-Monomers (6), konnte durch Kupplung des Essigsäurederivats (4) und des PNA-Rückgrats (5) mittels DIC/HOBt erreicht werden. ... Das PNA-Monomer sollte in weiterführenden Arbeiten durch kombinatorische Chemie in ein Tripeptid eingebaut werden. Dazu wäre es jedoch notwendig, die tert-Butyl-Schutzgruppe durch Säurezugabe abzuspalten, um die Carbonsäure (88) zu erhalten, die als PNA-Monomer in ein Tripeptid eingebaut werden kann. Es wurde jedoch eine Zersetzung des PNA-Monomers in das Hydrochlorid des Chinolins (3b) und zwei Fragmenten des Fmoc-geschützten Grundgerüsts nachgewiesen. 7.3 Alternative Methoden ... Auf einem anderen Weg konnte das Anhydrid (8) aus Ethylendiamin (9) in vier Syntheseschritten dargestellt werden, das mit dem Chinolin (3) gekuppelt werden konnte. Die resultierende Carbonsäure (10) wurde durch weiterführende Arbeiten in ein Tripeptid eingebaut. Nach der Abspaltung vom Harz und der Entschützung des Tripeptids fand eine intramolekulare Cyclisierung statt, wobei das Chinolin (3) als Abgangsgruppe nachgewiesen wurde. In nachfolgenden Arbeiten sollten die Eigenschaften von Iminochinolin (93) als RNA-Ligand bestimmt werden. Der Syntheseweg sollte über eine dreistufige Synthese vom Chinolin (3) ausgehend zum Iminochinolin (93) führen. Es konnte im Rahmen dieser Arbeit gezeigt werden, dass der erste Schritt, die Darstellung des Chlorochinolins (91), gelingt. 7.4 Ausblick Das erwähnte Iminochinolin (93) sollte in nachfolgenden Arbeiten ebenfalls auf seine Eigenschaft als RNA-Ligand untersucht werden. Die PNA-Monomere ließen sich nur mit geringen Ausbeuten kuppeln. In der Literatur zur Darstellung von PNA-Monomeren werden unterschiedliche Kupplungsreagenzien, wie EDC/HOBt, BOP/HOBt, TOTU oder PyBOP, für die PNA-Grundgerüste angegeben. Um bessere Ausbeuten zu erreichen, ist eine systematische Untersuchung der optimalen Kupplungsbedingungen vorzunehmen. Um die Zersetzung des PNA-Monomers (6) bei der Abspaltung der tert-Butylschutzgruppe zu verhindern, ist nach alternativen PNA-Rückgraden zu suchen. Methyl- oder Ethylester statt tert-Butylester wären durch Verseifung mit Natriumhydroxid in einem Wasser/Dioxan-Gemisch in das jeweilige Carboxylat zu überführen. Aufgrund der niedrigen Ausbeute des Tripeptids (4)-(D)Arg-(D)-Arg-CO-NH2 (96) soll versucht werden die Kupplungsausbeute durch Vermeidung möglicher Nebenreaktionen zu erhöhen. Eine mögliche Nebenreaktion ist die Cyclisierung der zu kuppelnden Carbonsäure (4) mit einer weiteren Carbonsäure (4), die vermieden werden kann durch die Einführung einer Boc-Schutzgruppe am sekundären Amin. Eine Kupplung mit der Boc-geschützten Carbonsäure (97) verspricht bessere Kupplungsausbeuten. ... In vorangegangenen Arbeiten[74][75] konnten das Lactam (98) mittels Heck- oder Suzuki-Reaktion nicht an das Vinylglycinderivat (99) gekuppelt werden. ... Als alternative Kupplungsmethode wird gerade in einer Doktorarbeit die „chiral pool“- Synthese mit Glutaminsäure (101) untersucht, die in die halogenierte Spezies (102) überführt werden soll. Die Kreuzkupplungsreaktion erfolgt durch eine Fe(acac)3 vermittelte Grignard-Reaktion...
Das vaskuläre Endothel ist in der Lage vasoaktive Autakoide zu synthetisieren und nach entsprechenden neurohumoralen Stimuli (z.B. Bradykinin oder Acetylcholin) oder aber physikalischen Reizen, (z.B. Schubspannung oder Scherkräften) an die Umgebung abzugeben. Neben gefäßkontrahierenden Substanzen wie dem mitogenen Peptid Endothelin produziert das Endothel vasodilatierende Substanzen, von denen bislang drei identifiziert werden konnten: NO, Prostazyklin und der in seiner chemischen Struktur noch umstrittene EDHF ("endothelium-derived hyperpolarising factor"). Während die Struktur und Wirkungsweise von NO sowie Prostazyklin bereits sehr gut charakterisiert werden konnten, existieren diesbezüglich bei EDHF noch kontroverse Vorstellungen. Cannabinoide, deren hypotensiven und Bradykardie-auslösenden Wirkungen schon längere Zeit bekannt sind, sind potente Hemmstoffe der EDHF-vermittelten Relaxation und Hyperpolarisation. Mit dieser Arbeit sollte der dieser Hemmung zugrunde liegende zelluläre Mechanismus näher untersucht werden. Es konnte gezeigt werden, dass delta9-Tetrahydrocannabinol und der Cannabinoidrezeptoragonist HU210 in kultivierten Endothelzellen zu einer vermehrten Phosphorylierung und damit Aktivierung der extrazellulär regulierten Kinasenl/2 (ERKI/2) führen. delta9-Tetrahydrocannabinol bewirkt daneben auch eine Phosphorylierung des gap junction Proteins Connexin 43 und unterbindet somit die Zell-zu-Zell-Kommunikation via gap junctions. Die Phosphorylierung von Connexin 43 war empfindlich gegenüber PD98059 und U0126, zwei Hemmstoffen der ERK1/2-Aktivierung. Die Hemmung der EDHF-vermittelten Hyperpolarisation und Relaxation vorkontrahierter Schweinekoronararterien durch delta9-Tetrahydrocannabinol konnte ebenfalls durch PD98059 und U0126 verhindert werden. Daneben bewirkten PD98059 und U0126 allein eine Linksverschiebung der Konzentrations-Relaxations-Kurve nach Gabe von Bradykinin hinsichtlich EDHF-verrnittelter Relaxationen, ohne jedoch die NO-abhängige Relaxation oder den Tonus des Gefäßes zu beeinflussen. Diese Ergebnisse zeigen, dass die Cannabinoid-induzierte Aktivierung von ERK1/2 über eine Phosphorylierung der Connexin-43-Proteine eine Unterbrechung der Zell-zu-Zell-Kommunikation via gap junctions zur Folge hat. Dies führte zu der Hypothese, dass ERKI/2 an der EDHF-vermittelten Hyperpolarisation und Relaxation, insbesondere der Weiterleitung der Hyperpolarisation vom Endothel zur glatten Muskelzelle über gap junctions zentral steuernd beteiligt sind und damit zumindest anteilig für die Cannabinoid-induzierten Hemmung EDHF-vermittelter Gefäßrelaxationen verantwortlich gemacht werden können. Die dabei zugrunde liegende Vorstellung einer zentralen Rolle der myoendothelialen gap junctions an der EDHF-vermittelten Relaxation in Schweinekoronararterien konnte jedoch in Organbadexperimenten nicht bestätigt werden, da die typischen gap junction-Blocker (18alpha-Glyzyrrhetinsäure, 18ß-Glyzyrrhetinsäure und Carbenoxolon) keine Hemmung EDHFvermittelter Gefäßrelaxationen bewirken konnten. Es ist somit unklar, inwieweit eine Cannabinoid-induzierte, ERKl/2-verrnittelte Entkopplung der Zell-zu-Zell-Kommunikation via gap junctions and der Cannabinoid-induzierten Hemmung Gefäßrelaxationen beteiligt ist.
Since the description of sepsis by Schottmüller in 1914, the amount on knowledge available on sepsis and its underlying pathophysiology has substantially increased. Epidemiologic examinations of abdominal septic shock patients show the potential for high risk posed by and the extensive therapy situation in the intensive care unit (ICU) (5). Unfortunately, until now it has not been possible to significantly reduce the mortality rate of septic shock, which is as high as 50-60% worldwide, although PROWESS' results (1) are encouraging. This paper summarizes the main results of the MEDAN project and their medical impacts. Several aspects are already published, see the references. The heterogeneity of patient groups and the variations in therapy strategies is seen as one of the main problems for sepsis trials. In the MEDAN multi-center study of 71 intensive care units in Germany, a group of 382 patients made up exclusively of abdominal septic shock patients who met the consensus criteria for septic shock (3) was analysed. For use within scores or stand-alone experiments variables are often studied as isolated variables, not as a multidimensional whole, e.g. a recent study takes a look at the role thrombocytes play (15). To avoid this limitation, our study compares several established scores (SOFA, APACHE II, SAPS II, MODS) by a multi-dimensional neuronal network analysis. For outcome prediction the data of 382 patients was analysed by using most of the commonly documented vital parameters and doses of medicine (metric variables). Data was collected in German hospitals from 1998 to 2001. The 382 handwritten patient records were transferred to an electronic database giving the amount of 2.5 million data entries. The metric data contained in the database is composed of daily measurements and doses of medicine. We used range and plausibility checks to allow no faulty data in the electronic database. 187 of the 382 patients are deceased (49 %).
In bioinformatics, biochemical signal pathways can be modeled by many differential equations. It is still an open problem how to fit the huge amount of parameters of the equations to the available data. Here, the approach of systematically obtaining the most appropriate model and learning its parameters is extremely interesting. One of the most often used approaches for model selection is to choose the least complex model which “fits the needs”. For noisy measurements, the model which has the smallest mean squared error of the observed data results in a model which fits too accurately to the data – it is overfitting. Such a model will perform good on the training data, but worse on unknown data. This paper propose as model selection criterion the least complex description of the observed data by the model, the minimum description length. For the small, but important example of inflammation modeling the performance of the approach is evaluated. Keywords: biochemical pathways, differential equations, septic shock, parameter estimation, overfitting, minimum description length.
Data driven automatic model selection and parameter adaptation – a case study for septic shock
(2004)
In bioinformatics, biochemical pathways can be modeled by many differential equations. It is still an open problem how to fit the huge amount of parameters of the equations to the available data. Here, the approach of systematically learning the parameters is necessary. This paper propose as model selection criterion the least complex description of the observed data by the model, the minimum description length. For the small, but important example of inflammation modeling the performance of the approach is evaluated.
In bioinformatics, biochemical pathways can be modeled by many differential equations. It is still an open problem how to fit the huge amount of parameters of the equations to the available data. Here, the approach of systematically learning the parameters is necessary. In this paper, for the small, important example of inflammation modeling a network is constructed and different learning algorithms are proposed. It turned out that due to the nonlinear dynamics evolutionary approaches are necessary to fit the parameters for sparse, given data. Keywords: model parameter adaption, septic shock. coupled differential equations, genetic algorithm.
We investigate transverse hadron spectra from relativistic nucleus-nucleus collisions which reflect important aspects of the dynamics - such as the generation of pressure - in the hot and dense zone formed in the early phase of the reaction. Our analysis is performed within two independent transport approaches (HSD and UrQMD) that are based on quark, diquark, string and hadronic degrees of freedom. Both transport models show their reliability for elementary pp as well as light-ion (C+C, Si+Si) reactions. However, for central Au+Au (Pb+Pb) collisions at bombarding energies above ~ 5 A.GeV the measured K+- transverse mass spectra have a larger inverse slope parameter than expected from the calculation. Thus the pressure generated by hadronic interactions in the transport models above ~ 5 A.GeV is lower than observed in the experimental data. This finding shows that the additional pressure - as expected from lattice QCD calculations at finite quark chemical potential and temperature - is generated by strong partonic interactions in the early phase of central Au+Au (Pb+Pb) collisions.
We investigate hadron production and transverse hadron spectra in nucleus-nucleus collisions from 2 A·GeV to 21.3 A·TeV within two independent transport approaches (UrQMD and HSD) based on quark, diquark, string and hadronic degrees of freedom. The enhancement of pion production in central Au+Au (Pb+Pb) collisions relative to scaled pp collisions (the ’kink’) is described well by both approaches without involving a phase transition. However, the maximum in the K+ p+ ratio at 20 to 30 A·GeV (the ’horn’) is missed by ~ 40%. Also, at energies above ~5 A·GeV, the measured K± mT-spectra have a larger inverse slope than expected from the models. Thus the pressure generated by hadronic interactions in the transport models at high energies is too low. This finding suggests that the additional pressure - as expected from lattice QCD at finite quark chemical potential and temperature - might be generated by strong interactions in the early pre-hadronic/partonic phase of central heavy-ion collisions. Finally, we discuss the emergence of density perturbations in a first-order phase transition and why they might affect relative hadron multiplicities, collective flow, and hadron mean-free paths at decoupling. A minimum in the collective flow v2 excitation function was discovered experimentally at 40 A·GeV - such a behavior has been predicted long ago as signature for a first order phase transition.
We investigate hadron production as well as transverse hadron spectra in nucleus-nucleus collisions from 2 A.GeV to 21.3 A.TeV within two independent transport approaches (UrQMD and HSD) that are based on quark, diquark, string and hadronic degrees of freedom. The comparison to experimental data demonstrates that both approaches agree quite well with each other and with the experimental data on hadron production. The enhancement of pion production in central Au+Au (Pb+Pb) collisions relative to scaled pp collisions (the 'kink') is well described by both approaches without involving any phase transition. However, the maximum in the K+/Pi+ ratio at 20 to 30 A.GeV (the 'horn') is missed by ~ 40%. A comparison to the transverse mass spectra from pp and C+C (or Si+Si) reactions shows the reliability of the transport models for light systems. For central Au+Au (Pb+Pb) collisions at bombarding energies above ~ 5 A.GeV, however, the measured K +/- m-theta-spectra have a larger inverse slope parameter than expected from the calculations. The approximately constant slope of K+/-spectra at SPS (the 'step') is not reproduced either. Thus the pressure generated by hadronic interactions in the transport models above ~ 5 A.GeV is lower than observed in the experimental data. This finding suggests that the additional pressure - as expected from lattice QCD calculations at finite quark chemical potential and temperature - might be generated by strong interactions in the early pre-hadronic/partonic phase of central Au+Au (Pb+Pb) collisions.
This paper provides an in-depth analysis of the properties of popular tests for the existence and the sign of the market price of volatility risk. These tests are frequently based on the fact that for some option pricing models under continuous hedging the sign of the market price of volatility risk coincides with the sign of the mean hedging error. Empirically, however, these tests suffer from both discretization error and model mis-specification. We show that these two problems may cause the test to be either no longer able to detect additional priced risk factors or to be unable to identify the sign of their market prices of risk correctly. Our analysis is performed for the model of Black and Scholes (1973) (BS) and the stochastic volatility (SV) model of Heston (1993). In the model of BS, the expected hedging error for a discrete hedge is positive, leading to the wrong conclusion that the stock is not the only priced risk factor. In the model of Heston, the expected hedging error for a hedge in discrete time is positive when the true market price of volatility risk is zero, leading to the wrong conclusion that the market price of volatility risk is positive. If we further introduce model mis-specification by using the BS delta in a Heston world we find that the mean hedging error also depends on the slope of the implied volatility curve and on the equity risk premium. Under parameter scenarios which are similar to those reported in many empirical studies the test statistics tend to be biased upwards. The test often does not detect negative volatility risk premia, or it signals a positive risk premium when it is truly zero. The properties of this test furthermore strongly depend on the location of current volatility relative to its long-term mean, and on the degree of moneyness of the option. As a consequence tests reported in the literature may suffer from the problem that in a time-series framework the researcher cannot draw the hedging errors from the same distribution repeatedly. This implies that there is no guarantee that the empirically computed t-statistic has the assumed distribution. JEL: G12, G13 Keywords: Stochastic Volatility, Volatility Risk Premium, Discretization Error, Model Error
Tests for the existence and the sign of the volatility risk premium are often based on expected option hedging errors. When the hedge is performed under the ideal conditions of continuous trading and correct model specification, the sign of the premium is the same as the sign of the mean hedging error for a large class of stochastic volatility option pricing models. We show, however, that the problems of discrete trading and model mis-specification, which are necessarily present in any empirical study, may cause the standard test to yield unreliable results.
When options are traded, one can use their prices and price changes to draw inference about the set of risk factors and their risk premia. We analyze tests for the existence and the sign of the market prices of jump risk that are based on option hedging errors. We derive a closed-form solution for the option hedging error and its expectation in a stochastic jump model under continuous trading and correct model specification. Jump risk is structurally different from, e.g., stochastic volatility: there is one market price of risk for each jump size (and not just \emph{the} market price of jump risk). Thus, the expected hedging error cannot identify the exact structure of the compensation for jump risk. Furthermore, we derive closed form solutions for the expected option hedging error under discrete trading and model mis-specification. Compared to the ideal case, the sign of the expected hedging error can change, so that empirical tests based on simplifying assumptions about trading frequency and the model may lead to incorrect conclusions.
Tractable hedging - an implementation of robust hedging strategies : [This Version: March 30, 2004]
(2004)
This paper provides a theoretical and numerical analysis of robust hedging strategies in diffusion–type models including stochastic volatility models. A robust hedging strategy avoids any losses as long as the realised volatility stays within a given interval. We focus on the effects of restricting the set of admissible strategies to tractable strategies which are defined as the sum over Gaussian strategies. Although a trivial Gaussian hedge is either not robust or prohibitively expensive, this is not the case for the cheapest tractable robust hedge which consists of two Gaussian hedges for one long and one short position in convex claims which have to be chosen optimally.
This paper deals with the superhedging of derivatives and with the corresponding price bounds. A static superhedge results in trivial and fully nonparametric price bounds, which can be tightened if there exists a cheaper superhedge in the class of dynamic trading strategies. We focus on European path-independent claims and show under which conditions such an improvement is possible. For a stochastic volatility model with unbounded volatility, we show that a static superhedge is always optimal, and that, additionally, there may be infinitely many dynamic superhedges with the same initial capital. The trivial price bounds are thus the tightest ones. In a model with stochastic jumps or non-negative stochastic interest rates either a static or a dynamic superhedge is optimal. Finally, in a model with unbounded short rates, only a static superhedge is possible.
We extend the important idea of range-based volatility estimation to the multivariate case. In particular, we propose a range-based covariance estimator that is motivated by financial economic considerations (the absence of arbitrage), in addition to statistical considerations. We show that, unlike other univariate and multivariate volatility estimators, the range-based estimator is highly efficient yet robust to market microstructure noise arising from bid-ask bounce and asynchronous trading. Finally, we provide an empirical example illustrating the value of the high-frequency sample path information contained in the range-based estimates in a multivariate GARCH framework.
Artemisia annua ist ein gutes Beispiel für eine invasive Art in Mitteleuropa, die sich nach einer längeren Lag-Phase plötzlich ausbreitet. Die Art stammt aus der temperaten Zone Asiens, wo sie ihre natürlichen Vorkommen an sandigen Fluß- und Seeufern sowie Wadis der Halbwüsten und Steppen besitzt. Synanthrope Vorkommen finden sich heute in Zentralrussland, Zentral- und Südeuropa sowie in Nordamerika. Wie auch bei anderen invasiven Arten ist auch hier die erfolgreiche Ausbreitung eng mit instabilen Habitaten verbunden. So nischt sich Artemisia annua in Ruderalgeseilschaften ± trockener Böden ein; ebenso werden sandige und kiesige Flußufer besiedelt. Eine Übersichtstabelle der bislang aus Mitteleuropa bekannten Aufnahmen wird präsentiert.
Hartmann and his Prague friends, whether German-Gentile or German-Jewish, rallied enthusiastically to the cause of what at first was a reawakening of suppressed Bohemic cultural nationalism and a move towards across-fertilisation of the two main lingual cultures (Czech/German) andthe three main ethnicities (Czech/German/Jewish) of the country. They soon saw themselves as a "Jungböhmische Bewegung" to correspond to Young Germany. The Prague writer Rudolf Glaser founded a literary journal called 'Ost und West' for the express purpose of bringing together German and Slavic literary impulses under the Goethean motto: "Orient und Occident sind nicht mehr zu trennen". With Bohemia as the bridge, 'Ost und West' published German translations from all the Slavic languages including Pushkin and Gogol, contributions by German writers sympathetic to the cause of emerging nations like Heinrich Laube, Ferdinand Freiligrath, Ernst Willkomm, but above all the Prague circle of Young Bohemians like Alfred Meissner, Isidor Heller, Uffo Horn, Gustav Karpeles and Ignatz Kuranda. Also Hartmann made his literary debut in the journal with a love poem entitled "Der Drahtbinder", and featuring a subtitle which was in keeping with the spirit of the times: "nach einem slavischen Lied".
We point out that during the supernova II type explosion the thermodynamical conditions of stellar matter between the protoneutron star and the shock front correspond to the nuclear liquid–gas coexistence region, which can be investigated in nuclear multifragmentation reactions. We have demonstrated, that neutron-rich hot heavy nuclei can be produced in this region. The production of these nuclei may influence dynamics of the explosion and contribute to the synthesis of heavy elements.
Determination of the structure of complex I of Yarrowia lipolytica by single particle analysis
(2004)
Komplex I enthält ein Flavinmononukleotid sowie mindestens acht Eisen- Schwefel Zentren als redoxaktive Cofaktoren. Da ein wesentlicher Teil des mitochondrialen Genoms für Untereinheiten von Komplex I codiert, betrifft eine Vielzahl von mitochondrialen Erkrankungen diesen Enzymkomplex.
Komplex I wurde bisher aus Mitochondrien, Chloroplasten und Bakterien isoliert. Die Minimalform von Komplex I wird in Bakterien gefunden, wo er aus 14 (bzw 13 im Falle einer Genfusion) Untereinheiten besteht und eine Masse von etwa 550 kDa aufweist. Generell werden sieben hydrophile und sieben hydrophobe Untereinheiten mit über 50 vorhergesagten Transmembranhelices gefunden. Im Komplex I aus Eukaryoten wurde eine grössere Anzahl zusätzlicher, akzessorischer Untereinheiten nachgewiesen. Hier werden die sieben hydrophoben Untereinheiten vom mitochondrialen Genom codiert, während alle anderen Untereinheiten kerncodiert sind und in das Mitochondrium importiert werden müssen.
Die obligat aerobe Hefe Yarrowia lipolytica wurde als Modellsystem zur Untersuchung von eukaryotischem Komplex I etabliert. Die bisher am besten untersuchte Hefe Saccharomyces cerevisiae enthält keinen Komplex I. Hier wird die Oxidation von NADH durch eine andere Klasse von sogenannten alternativen NADH Dehydrogenasen durchgeführt. Auch Y. lipolytica enthält ein solches alternatives Enzym, das allerdings mit seiner Substratbindungsstelle zur Aussenseite der inneren Mitochondrienmembran orientiert ist. Durch molekularbiologische Manipulation konnte eine interne Version dieses Enzymes exprimiert werden, wodurch es möglich ist, letale Defekte in Komplex I Deletionsmutanten zu kompensieren. Mittlerweile wurden alle Voraussetzungen geschaffen, um kerncodierte Untereinheiten von Komplex I aus Y. lipolytica gezielt genetisch zu verändern. Die Proteinreinigung wird durch die Verwendung einer auf einem His-tag basierenden Affinitätsreinigung erheblich erleichtert...
Mit enormem Aufwand und hervorragendem Ingenieurverstand wurden im 19. Jahrhundert so gut wie alle großen Flüsse ausgebaut, begradigt und durch Dämme gezähmt oder – wie man damals sagte – rektifiziert oder korrigiert. Dieses Werk wurde im 20. Jahrhundert weiter perfektioniert. Besondere Schwerpunkte bildeten Kanalisierungen und Dammbauten zur weiteren Optimierung von Flussschifffahrt und Energiegewinnung, zur Verbesserung des Hochwasserschutzes von Siedlungen und zur Schaffung von weitgehend hochwassergeschützten Agrarflächen in den Auen. Auch die Bereitstellung von Kühlwasser für immer zahlreichere und größere Kraftwerke nahm an Bedeutung zu. Die ernüchternde Bilanz dieser Entwicklung, die an allen größeren, aber auch an vielen kleineren Flüssen und an den Bächen stattfand, ist ein weitgehendes Verschwinden naturnaher Fließgewässer- und auentypischer Lebensräume und damit verbunden eine ganz erhebliche Gefährdung der spezifischen Tier und Pflanzenwelt unserer Bäche und Flüsse. Schutz und Entwicklung der verbliebenen naturnahen Fließgewässer und ihrer Ufervegetation sind daher aus Sicht des Naturschutzes elementare Aufgaben, um die Vielfalt an Arten und Biotopen der baden-württembergischen Bäche und Flüsse zu bewahren und zu fördern. Auch den Erholung suchenden Menschen kommt der Schutz naturnaher Fließgewässer zugute. Fließgewässer prägen viele Landschaften, die wir besonders anziehend finden, wie etwa die Täler von Jagst und Kocher oder das obere Donautal. Aus diesen Gründen sind seit dem 1. Januar 1992 naturnahe Abschnitte von Bächen und Flüssen sowie naturnahe Altarme jeweils einschließlich ihrer Ufervegetation besonders geschützte Biotope nach dem badenwürttembergischen Naturschutzgesetz (§ 24a NatSchG). Sie wurden als naturnahe Fließgewässerabschnitte kartiert, wenn sie unverbaut oder nur unwesentlich künstlich verändert waren und eine Länge von mindestens 20 m aufwiesen. Ein Auszug des Gesetzestextes sowie die dazugehörigen Definitionen der genannten Biotoptypen sind im Anhang abgedruckt.
Interleukin-18-Bindungsprotein (IL-18BP) ist ein erst kürzlich entdeckter Gegenspieler von Interleukin-18 (IL-18). Aufgrund der Eigenschaft von IL-18BP mit hoher Affinität an IL-18 zu binden, wird IL-18 neutralisiert und seine biologischen Wirkungen durch IL-18BP inhibiert. Das Zytokin IL-18 ist ein multifunktioneller Botenstoff des Immunsystems, dessen Aktivität bei der Entstehung von Entzündungen, der Abwehr von Infektionen und der Rückbildung von Tumoren beteiligt sein kann. Eine der bedeutendsten Wirkungen von IL-18 ist insbesondere seine Fähigkeit die Produktion und Freisetzung von Interferon-gamma durch T-Helfer Typ 1 (Th1) Zellen, Natürliche Killer (NK) Zellen und CD8+ zytotoxische Zellen auszulösen. Bislang war lediglich bekannt, dass es sich bei IL-18BP um ein konstitutiv exprimiertes und sezerniertes Protein handelt. Die Zielsetzung dieser Promotionsarbeit war es zu untersuchen, ob eine Regulation der Genexpression von IL-18BP in Nicht-Immunzellen stattfindet. Dazu wurde im ersten Schritt eine semiquantitative RT-PCR Methode etabliert, mit Hilfe derer eine schwache konstitutive Expression der IL-18BP mRNA in Zellkulturen von humanen renalen Mesangiumzellen, epithelialen DLD-1 Kolonkarzinomzellen und Fibroblasten nachgewiesen wurde. Im Folgenden konnte als wesentliches Ergebnis festgestellt werden, dass eine Induktion der Genexpression von IL-18BP durch Interferon-gamma erfolgt. Mit RNase Protection Assays wurden nach Interferon-gamma Exposition 20 – 30fache relative Steigerungen der IL-18BP mRNA detektiert. In humanen Mesangiumzellen führte außerdem bakterielles Lipopolysaccharid zum Anstieg der IL-18BP Genexpression. Im zweiten Teil der Untersuchungen ließ sich unter Verwendung eines eigens hergestellten polyklonalen Antiserums nachweisen, dass durch Interferon-gamma auch eine starke Vervielfachung der Freisetzung bzw. Sekretion von IL-18BP stattfindet. Weiterhin wurden Kokulturen von IL-12/IL18 aktivierten humanen mononukleären Zellen aus dem peripheren Blut (PBMCs) mit entweder Mesangiumzellen oder DLD-1 Zellen durchgeführt. In diesen Kokulturen bewirkte die mittels ELISA gemessene Freisetzung von endogenem Interferon-gamma durch die PBMCs ebenfalls eine Induktion der Genexpression von IL-18BP in den Mesangiumzellen und DLD-1 Zellen. Darüber hinaus wurde in anderen Experimenten untersucht, ob die Regulation von IL-18BP gleichzeitig von Änderungen im Gehalt an IL-18 begleitet wird. Während in den humanen Mesangiumzellen kein IL-18 exprimiert wurde, konnte in den DLD-1 Zellen konstitutives proIL-18 detektiert werden. Jedoch hatte Interferon-gamma in DLD-1 Zellen keinen Einfluss auf die IL-18 Expression. Die hier zusammengetragenen Resultate belegen zum ersten Mal, dass es sich bei IL-18BP nicht nur um ein konstitutiv exprimiertes Protein, sondern vielmehr um einen spezifisch regulierten Immunmodulator handelt. Die Induktion der Freisetzung von IL-18BP durch Interferon-gamma stellt den entscheidenden Schritt eines bislang unbekannten negativen Rückkopplungsmechanismus zwischen Immunzellen und ortsständigen Nicht-Immunzellen dar: Nach der Freisetzung von IL-18 bei Entzündungen, Infektionen und Tumorerkrankungen führt das von Th1-, NK- und CD8+-Zellen produzierte Interferon-gamma zu einer Sekretion von IL-18BP durch Nicht-Immunzellen. Infolgedessen kommt es konsekutiv zur Limitierung der Aktivität von IL-18 mit Reduzierung seiner proinflammatorischen Wirkungen. Da ein Übermaß an IL-18 bei der Pathogenese von chronisch entzündlichen Erkrankungen wie beispielsweise der Rheumatoiden Arthritis und dem M. Chron eine Rolle zu spielen scheint, ist von besonderem Interesse welche natürlichen Wege für die Blockierung von IL-18 existieren. Die therapeutische Applikation von IL-18BP könnte sich in Zukunft als eine neue Strategie zur erfolgreichen Behandlung dieser Krankheiten erweisen.
Recent syntactic theory has highlighted the importance of peripheral constructions such as the comparative correlative construction. This construction involves a pair of filler-gap constructions with unusual properties. The first is a subordinate clause and the second a main clause. The construction has a number of related constructions. A version of HPSG, which assumes hierarchies of phrase types, can provide satisfactory analyses both for the comparative correlative constructions and for the related constructions. The two clauses in the comparative-correlative construction can be analysed as non-standard head-filler phrases differing from standard headfiller phrases in certain respects. The construction as a whole can be analyzed as a non-standard head-adjunct phrase, in which the head and the phrase have different categories.
Ziel der vorliegenden In-vitro-Untersuchung war der Vergleich drei unterschiedlicher maschineller Nickel-Titan-Wurzelkanalinstrumente bezüglich ihres Vermögens, künstliche Wurzelkanäle mit einem standardisierten Krümmungsradius von 36° nach der Crown-downMethode aufzubereiten. Die verwendeten Systeme waren Profile .04- und Profile .06-Feilen, sowie Mity -Roto-Feilen; angetrieben wurden die Instrumente mit dem ATR Tecnika Motor, einem drehmomentbegrenztem, computergesteuerten Endodontiemotor. Insgesamt wurden vom selben Behandler 60 Kanäle aufbereitet, nachdem diese zuvor in drei Gruppen aufgeteilt wurden: Gruppe 1 wurde ausschließlich mit Profile .04-Instrumenten aufbereitet, Gruppe 2 mit Mity-Roto-Feilen und Gruppe 3 in der Kombination Profile .04-, sowie Profile .06-Feilen. Die einzelnen Kanäle wurden in Hinsicht der Parameter Aufbereitungszeit, Arbeitslängenverlust, Gewichtsverlust, Instrumentenfraktur, sowie Veränderungen der Kanalanatomie miteinander verglichen. Durch Übereinanderprojektion von DiapositivAufnahmen vor und nach Aufbereitung erfolgte die Auswertung der Veränderung der Kanalanatomie.
Hinsichtlich der Aufbereitungszeit gab es zwischen den Systemen Mity-Roto und Profile .04/06 keine statistisch signifikanten Unterschiede.
Die besten Ergebnisse bezüglich Verlust von Arbeitslänge wurden mit den Mity-Roto-Feilen erzielt. Bei allen 20 Kanälen wurde nach der Aufbereitung die volle Arbeitslänge wieder erreicht. Im Gegensatz dazu ergaben sich bei der Aufbereitung mit Profile .04-Instrumenten in allen 20 Kanälen Arbeitslängenverluste, diese betrugen im Mittel 2,8 mm. Mit nur 0,3 mm mittleren Verlusts an Arbeitslänge unterscheidet sich die Profile .04/06-Gruppen nicht statistisch signifikant von der Mity-Roto-Gruppe, es gilt aber hierbei zu berücksichtigen, dass die von einer Fraktur betroffenen Kanäle nicht in die statistischen Auswertungen einbezogen wurden. Insgesamt wurde bei der Kombination der Instrumente Profile .04 und .06, d.h. in Gruppe 3, bei ca. der Hälfte der Kanäle die ursprüngliche Arbeitslänge nicht erreicht.
Die Auswertung dieses Parameters weist darauf hin, dass eine Kombination der Profile .04-Instrumente mit den stärker konischen .06-Instrumenten für die oberen Kanalanteile zu einer Verbesserung der Ergebnisse führt. Demgegenüber sind die Mity-Roto-Instrumente mit ihrem 2-prozentigem Konus in der Lage, auch ohne den zusätzlichen Einsatz eines stärker konischen Instruments für den Kanaleingang bei allen Kanälen die Ursprungsarbeitslänge zu erreichen. Bei den Werten für den Gewichtsverlust nach Aufbereitung unterschieden sich die drei Aufbereitungsmethoden statistisch nicht voneinander.
Bei sechs von 60 aufbereiteten Kanälen ergaben sich Frakturen, dies entspricht einer Frakturrate von 10 %. Absolut gesehen traten nur bei den Profile 04-Instrumenten Frakturen auf, jeweils drei bei der Profile .04- Gruppe und ebenfalls drei bei der Profile .04/06-Gruppe. Häufigste Frakturstelle war das apikale Drittel des 16 mm langen Arbeitsteils der Feile. Betroffen waren vor allem die Feilen stärkeren Durchmessers, insbesondere kam es bei der Feile # 30 in vier Fällen zu einer Fraktur. Die Mity-Roto-Feilen verfügen über eine hohe Arbeitssicherheit, in keinem der 20 Wurzelkanäle kam es zum Auftreten einer Fraktur.
Bezüglich der Veränderung der Kanalanatomie lässt sich für die Mity-Roto-Feilen ein weitgehend zentriertes Aufbereitungsverhalten feststellen. Hingegen weisen die Profile .04-Gruppe, sowie die Profile .04/06-Gruppe lediglich im apikalen Kanalanteil ein zentriertes Aufbereitungsmuster auf, im mittleren Teil kommt es zu einem stärkeren Abtrag an der Außenkurvatur und koronal ist eine Verlagerung des stärksten Abtrags nach mesial festzustellen.
Bei der Bewertung der Veränderung der Kanalanatomie muss berücksichtigt werden, dass durch die Diapositivtechnik nur eine Betrachtung in zwei-dimensionaler Weise möglich war, die dritte Ebene ist ausgespart und entzieht sich somit der Möglichkeit der Bewertung. Der Großteil von Studien, der sich mit der Aufbereitung von Wurzelkanälen beschäftigt, bereitet diese häufig nicht in dem starken Maße auf, wie in der vorliegenden Untersuchung geschehen. Statt einer Masterfeile von # 40, wie in der vorliegenden Untersuchung, wird häufig lediglich bis # 30, beziehungsweise # 35 aufbereitet.
Unter den Bedingungen der vorliegenden Studie führte die maschinelle
Wurzelkanalpräparation mit Profile .04-Instrumenten zu unbefriedigenden Ergebnissen, die sich jedoch durch den zusätzlichen Einsatz der stärker konisch geformten .06-Instrumente deutlich verbessern lassen. Aufgrund der relativ hohen Frakturhäufigkeit kann der kombinierte Einsatz von Profile .04- und Profile .06-Instrumenten für die Aufbereitung von gekrümmten Kanälen eingeschränkt empfohlen werden.
In Bezug auf alle erhobenen Parameter erzielte die Aufbereitung mit den Mity-Roto-Feilen die besten Ergebnisse und kann für die maschinelle Aufbereitung gekrümmter Wurzelkanäle empfohlen werden.
Obwohl Goethes Bedeutung als größter deutscher Dichter - bei aller Polemik gegen ihn zu seiner und späterer Zeit - kaum je umstritten war, wurde ihm doch von den Deutschen nach der Überzeugung Nietzsches kaum je wirklich normative Kraft zugeschrieben. "Goethe that den Deutschen nicht noth, daher sie auch von ihm keinen Gebrauch zu machen wissen", bemerkt er in einem anderen Aphorismus aus Menschliches, Allzumenschliches: "Man sehe sich die besten unserer Staatsmänner und Künstler daraufhin an: sie alle haben Goethe nicht zum Erzieher gehabt, - nicht haben können." Er stehe "zu seiner Nation weder im Verhältnis des Lebens noch des Neuseins noch des Veraltens", heißt es wieder im Aphorismus "Giebt es >deutsche Classiker<?". "Nur für Wenige hat er gelebt und lebt er noch: für die Meisten ist er Nichts, als eine Fanfare der Eitelkeit, welche man von Zeit zu Zeit über die deutsche Grenze hinüberbläst."
Herrschergüte versus Staatsraison : Politik und Empfindsamkeit in Mozarts La Clemenza di Tito
(2004)
Keine Oper Mozarts ist im Laufe ihrer Wirkungs- und Aufführungsgeschichte einem derartigen Wechselbad der Wertungen ausgesetzt gewesen wie "La clemenza di Tito". Zu Beginn des 19. Jahrhunderts gehörte sie zu seinen meistgerühmten musikdramatischen Werken, zählte an den deutschen Bühnen und seit 1806 - als erste Mozart-Oper überhaupt wurde sie in diesem Jahr in London in Szene gesetzt - auch an den großen europäischen Opernhäusern mehr oder weniger selbstverständlich zum Repertoire. Franz Xaver Niemetschek bezeichnete sie in seiner Biographie von 1798 gar als "die vollendetste Arbeit Mozarts". Auch Goethe brachte der letzten Oper des von ihm unter allen Zeitgenossen am höchsten geschätzten Komponisten besonderes Interesse entgegen.
Goethe und die Musik seiner Mit- und Nachwelt: das ist ein weites, ja eines der weitesten Felder seiner Wirkungsgeschichte. Wohl kein Dichter in der Geschichte der Weltliteratur hat einen vergleichbaren Einfluß auf die Musik gewonnen hat wie er. Fast keiner der großen Komponisten - zumindest in Deutschland - von der Schwelle des 19. bis zum Beginn des 20. Jahrhunderts ist ohne ihn ausgekommen, ja in vielen Fällen - es seien nur die Namen Beethoven, Schubert, Mendelssohn, Schumann, Liszt, Wagner, Brahms, Mahler, Strauss, Busoni oder Webern genannt - stehen die Lektüre und musikalische Auseinandersetzung mit Goethe so sehr im Zentrum ihres ästhetischen Kosmos, daß man beinahe behaupten kann: ohne ihn hätte ihr Werk eine andere geistige, ja vielfach eine andere künstlerische Gestalt. Vor allem eine bestimmte musikalische Gattung, die außerhalb Deutschlands heute mehr denn je als Inbegriff deutscher Kultur gilt, hätte sich ohne ihn niemals in dieser Form und zu dieser Höhe entwikelt: das Kunstlied, "le lied", wie die Franzosen sagen, ein Wort, das niemals im Dictionnaire stünde, hätte es Goethe nicht gegeben, dessen Gedichte seit fast zweihundert Jahren nach den Worten von Friedrich Blume "die bei weitem am häufigsten komponierten Texte der Weltliteratur" sind.
Komposite werden in den letzten Jahren als Füllungsmaterial zunehmend auch im Seitenzahnbereich verwendet. Ein Nachteil dieser Füllungen ist, daß sie mit der Zahnhartsubstanz verklebt werden müssen, was bei Revision von Füllungen tendenziell zu einem Verlust von Zahnhartsubstanz führt. In der vorliegenden Untersuchung wurde geprüft, ob die Verwendung farbiger Unterfüll- oder Füllmaterialien das Auffinden der Grenze zwischen Zahnhartsubstanz und Füllung erleichtert. Die Ergebnisse der vorliegenden in vitro-Untersuchung zeigen, daß bei allen verwendeten Materialienkombinationen nach der Kompositrevision, trotz der Verwendung einer Lupenbrille, eine Überextension der Kavitäten festzustellen war. Die bei einzelnen Messungen gefundenen Unterextensionen dürften als durch den Sprayauftrag bedingte Meßfehler anzusehen sein. Für den Vergleich verschiedener Komposite und Unterfüllungen ergaben sich keine wesentlichen Unterschiede in der Revisionszeit bzw. den dimensionalen Veränderungen der Kavität durch die Revision. Weder die Verwendung eines photochromen Komposits für die Unterfüllung (wie in den Gruppen II und III) noch die eines blauen Füllungskomposits (Gruppe IV) verkürzten die Revisionszeit oder verbesserten die Präparationsgenauigkeit in statistisch signifikanter Weise. Vorteile metallischer gegenüber adhäsiven Füllungsmaterialien dürften damit nicht durch die unterschiedliche Farbe bedingt sein, sondern am ehesten durch das Entfallen der Adhäsivschicht, die das Auffinden der Grenze zwischen Zahnhartsubstanz und Füllungsmaterial offensichtlich erschwert.
Die vorliegende Arbeit hat das Ziel, eine Kulturgeschichte des türkischen Theaters und Kabaretts in der Bundesrepublik vorzustellen, deren Protagonisten (Organisatoren, Schriftsteller, Schauspieler und Regisseure) nunmehr bereits in die dritte Generation gehen, ohne dass die Geschichte der ersten Generation, der Initiatoren und bis heute treibenden Kraft dieses Theaters, je kohärent aufgezeichnet worden wäre. Darüber hinaus steht ein Generationswechsel an: das wird deutlich, sobald man sich in die 'Szene' begibt, in der es, wie meine Ausführungen zeigen werden, derzeit rumort, kreativ und destruktiv zugleich: Junge Künstler mit neuen Ideen drängen nach und fühlen sich nicht selten behindert von den 'Alten', die immer noch die Schalthebel besetzen und sich nicht davon abbringen lassen wollen, ihre Projekte nach altbewährten Methoden fortzuführen.
Die Narzissenwiesen werden im Untersuchungsgebiet regelmäßig ein- bis zweimal pro Jahr gemäht oder extensiv mit Rindern beweidet; auch ein bis zwei Schnitte und eine anschließende Weidenutzung sind möglich. Sie werden nicht oder nur sehr schwach vorwiegend mit Wirtschaftsdünger gedüngt. - Die Narzissenwiesen besiedeln im Untersuchungsgebiet mäßig feuchte bis halbtrocken-wechselfeucht veranlagte Standorte. Sie kommen auf Kalkbraunlehmen und Kalklehm-Rendsinen vor; ihr Verbreitungsschwerpunkt liegt allerdings auf tiefgründigen Kalkbraunlehmen. Die Oberböden der Narzissenwiesen weisen einen sehr niedrigen Gehalt an lactat- und wasserlöslichem P auf. Der pH-Wert reicht vom Al-Pufferbereich bis in den Karbonat-Pufferbereich (pH CaCl2: 4.0-7.2). N und P sind die primär limitierenden Nährstoffe für das Pflanzenwachstum. Ein niedriger mineralischer N- und lactatlöslicher P-Gehalt im Oberboden, ein tonreicher Boden, ein schneereiches, subozeanisches, kühl-feuchtes Klima und eine regelmäßige extensive Bewirtschaftung sind Voraussetzungen für die Existenz von Narzissenwiesen.
Die Narzissenwiese ist eine an Hemikryptophyten und Geophyten reiche, montane Pflanzengesellschaft; der Therophytenanteil ist relativ gering. - Die Narcissus radiiflorus-Gesellschaft ist ein eigenständiger Vegetationstyp des Verbandes Polygono-Trisetion. Dafür sprechen die spezifischen Standortbedingungen, die besondere Phänologie und Struktur sowie die charakteristische Artenverbindung. Die Gesellschaft kann im Untersuchungsgebiet in zwei Untereinheiten gegliedert werden. Die Untergesellschaft von Trollius europaeus besiedelt überwiegend tiefgründige Kalkbraunlehme auf lokalklimatisch kühleren Standorten. Die Untergesellschaft von Thymus pulegioides besiedelt tiefgründige Kalkbraunlehme bis flachgründige Kalklehm-Rendsinen auf lokalklimatisch wärmebegünstigten Standorten. Die extensiv mit Rindern beweideten Narzissenwiesen unterscheiden sich von den regelmäßig gemähten floristisch kaum. Nährstoffreichere und intensiver genutzte Pflanzenbestände leiten je nach Höhenlage zu einer Alchemillo monticolae-Arrhenatheretum elatioris - Geranio sylvatici-Trisetetum flavescentis-Übergangsgesellschaft oder zum Geranio sylvatici-Trisetetum flavescentis über. In brachgefallenen Narzissenwiesen kann sich vor allem Molinia caerulea ausbreiten und ein artenärmeres, relativ stabiles Molinia caerulea-Stadium bilden. - Die Moosflora der Narzissenwiesen ergibt kein einheitliches Bild. Moose des schwach sauren und mäßig feuchten Waldbodens überwiegen.
Die Wurzeln von Narcissus radiiflorus sind mit vesikulär-arbuskulären Mykorrhizapilzen kolonisiert. Der Mykorrhizierungsgrad ist sehr hoch. Die Stern-Narzisse ist somit eine bevorzugte VAM-Wirtspflanze.
Die Narzissenwiesen zählen im Untersuchungsgebiet hinsichtlich Gefäßpflanzen zu den artenreichsten Pflanzengesellschaften; es sind wertvolle Rückzugsgebiete und Lebensräume für viele seltene und gefährdete Pflanzenarten.
Als Mittel der für eine Reise konstitutiven Fortbewegung hat Goethe verschiedene Vehikel eingesetzt, das Spektrum reicht von den Fußwanderungen über die Fortbewegung zu Pferd, zu Schiff oder in der Kutsche bis zu den Reisen, die Goethe im Geiste unternahm – ausschließlich mit den Flügeln der eigenen Vorstellungskraft oder auch mit der Hilfe von Büchern, inspiriert durch Lektüre. Zu dieser letzten Art Reisen gehört offensichtlich die, um die es im folgenden gehen soll: "Goethes poetische Orientreise". Der Titel bezeichnet Goethes erstaunliche Begegnung mit den Dichtern des Orients in den Jahren von 1814 bis 1819 und das Werk, das daraus entstand. Es geht also um den Westöstlichen Divan, der mindestens in doppelter Hinsicht eine "poetische" Reise ist: eine Reise hin zu der Poesie des Orients und eine Reise mit den Mitteln der Poesie: der Phantasie und der literarischen Gestaltung.
Spätestens seit den gesellschaftlichen Modernisierungsschüben in den sechziger Jahren identifiziert auch die Germanistik Erkenntnis- und Wissenszuwachs, ja allgemeiner den "Fortschritt" ihres Fachs, mit Komplexitätserhöhung. Vor diesem Hintergrund erscheint es mir wenig plausibel, die seitdem erfolgten inneren Ausdifferenzierungen und interdisziplinären Grenzüberschreitungen als durch Identitätsverlust, Zerstreuung und Desintegration gekennzeichnete Niedergangsszenarien zu beschreiben. Die Veränderungen gehorchen der immanenten Logik germanistischer Forschung, einer "disziplinierten", auf Leistung ausgerichteten, an kooperativen Großforschungsvorhaben partizipierenden Wissensproduktion.
Alles nach Plan, alles im Griff : der diskursive Raum der DDR-Literatur in den Fünfziger Jahren
(2004)
Die DDR-Literatur gehört nicht mehr zu den bevorzugten Forschungsgebieten der Literaturwissenschaft. Die letzte umfassende Darstellung erschien 1996. Die Auslandsgermanistik allerdings ist von einem anhaltenden Interesse gekennzeichnet. Nahezu vergessen scheinen die fünfziger Jahre. Die folgenden Überlegungen möchten die These ins Spiel bringen, dass dies nicht zufällig so ist. Obwohl noch Ende der siebziger Jahre emphatisch von der Herausbildung einer sozialistischen Nationalliteratur gesprochen wurde, ist heute abzusehen, dass kein einziges Werk der DDR-Literatur aus den Fünfzigern in den Kanon der deutschen Nachkriegsliteratur eingehen wird, sieht man von Uwe Johnsons Roman "Mutmaßungen über Jakob" ab, der zwar in der DDR geschrieben wird, jedoch 1959 in der Bundesrepublik erscheint. Man muss ohnehin fast immer die Fernleihe des Bibliothekenverbunds bemühen, um diese Werke überhaupt noch in die Hand zu bekommen.
Die autologe Transplantation von hämatopoetischen Stammzellen im Rahmen einer Hochdosis-Chemotherapie hat sich inzwischen bei der Behandlung von Tumoren im Kindesalter etabliert. Dabei blieb der optimale Zeitpunkt der Apherese von der CD34+ hämatopoetischen Stammzellen im peripheren Blut der Kinder, bezogen auf die Stunden am Tag der geplanten Stammzellsammlung, bisher unbeleuchtet. Insbesondere für pädiatrische Patienten liegen keine Untersuchungen zur dieser Problematik vor, deren Lösung jedoch den Erfolg einer Stammzellapherese verbessern könnte. Zielsetzung dieser Arbeit war es, die Mobilisierung der CD34+ Stammzellen im peripheren Blut unter dem Einfluß von G-CSF(Granulocyte-Colony Stimulating Factor) in Form eines klinischen Monitoring darzustellen. Dies erfolgte mit Hilfe der durchflusszytometrischen Messung CD45+/CD34+ Zellen aus dem peripheren Blut der Patienten nach G-CSF-Stimulation mit regelmäßigen Blutentnahmen über einen Zeitraum von 12 Stunden. Untersucht wurden 14 Patienten der Klinik III der Universitäts-Kinderklinik Frankfurt mit unterschiedlichen malignen Erkrankungen (8x Neuroblastom, 2x Osteosarkom, NHL, PNET, Ewing-Sarkom, RMS). Dabei wurden im Abstand von 0,2,4,5,6,7,8,10 und 12 Stunden nach einer subcutanen G-CSF-Gabe (Dosis 4,8 bis 10,2 mikrog/kg/d) EDTA-Blutproben über einen zentralen Venenkatheder entnommen, und daraus ein automatisches Blutbild sowie eine durchflusszytometrische Bestimmung der Konzentration an CD34/45 positiven Zellen durchgeführt. Mit Hilfe dieser Bestimmung konnte nachgewiesen werden, dass die CD34/45 positiven Zellen über die 12 Stunden des Beobachtungszeitraumes individuell unterschiedliche Verläufen bieten. Zudem konnten alle Patienten zwei unterschiedlichen Initialkinetiken - den Mobilisierungstypen I und II - zugeordnet werden, welche sich durch einen initialen Anstieg bzw. einen initialen Abfall der CD34+ Zellkonzentration unterscheiden. Der optimale Zeitpunkt der Apherese – repräsentiert durch ein CD34+ Zellkonzentrationsmaximum im peripheren Blut - konnte für das untersuchte Patientenkollektiv mit ca. 8 Stunden nach G-CSF Bolus beschrieben werden. Dabei konnte weder der Verlauf der Gesamtleukozyten noch andere hämatologische Parameter aufgrund eines signifikant ähnlichen Verlaufes als Indikator für den Verlauf der CD34+ Zellmobilisierung genutzt werden. Signifikanten Hinweise auf Zusammenhänge zwischen dem Verlauf der C34+ Zellmobilisierung und den Grunderkrankungen, dem Alter, dem Geschlecht oder der Mobilisierungsart gab es nicht. Es stelle sich jedoch Eine Tendenz zur Mobilisierung vom Typ I bei Kindern unter 3 Jahren dar. Eine Optimierung der Stammzellapherese kann durch zusätzliche CD34+ Zellkonzentrationsbestimmungen erwartet werden, die Aufschluss über den Mobilisierungstyp geben uns somit helfen, den optimalen Sammelzeitpunkt zu bestimmen. Messungen zum Zeitpunkt 0,2 und 8 Stunden nach G-CSF-Bolus erscheinen als besonders aufschlussreich. Durch Beachtung der Maximal- und Minimalkonzentrationen der individuellen Verläufe können Apheresen zu optimalen Zeitpunkten durchgeführt werden, was zu einer Verbesserung der Aphereseausbeute und damit zu einer Senkung der Belastungen und Risiken für den Patienten führen. Die hier untersuchte, sehr inhomogene und zahlenmäßig kleine Patientengruppe hat jedoch auch gezeigt, dass größere Studien mit mehr Patienten notwendig sind, um statistisch signifikante Aussagen treffen zu können.
In der präoperativen Diagnostik fokaler maligner Leberläsionen nimmt die MRT mit Resovist® einen zunehmend höheren Stellenwert ein.
T2 gewichtete TSE- und FS-Sequenzen der Resovist® unterstützten MRT sind dabei sensitiver als die in der präoperativen Diagnostik etablierte CTAP mit Ultravist® 370, einem nichtionischen jodhaltigen Kontrastmittel.
Die visuelle Differenzierung und Charakterisierung fokaler maligner Leberläsionen und deren Abgrenzung vom Leberparenchym in der Resovist® unterstützten MRT kann durch die Analyse der Signalintensitätskurven optimiert werden. Eine effektivere Charakterisierung der fokalen Leberläsionen wirkt sich damit positiv auf die Sensitivität und Spezifität der SPIO verstärkten MRT aus.
Es bleibt daher offen, die Signalintensitäten der primären und sekundären Leberläsionen der hier nicht untersuchten Gewebearten in weiteren Studien zu analysieren.
Desweiteren könnten nachfolgende Untersuchungen das Ziel haben, die Sensitivität und Spezifität der Resovist® unterstützten MRT durch eine Verminderung der Schichtdicke zu verbessern, womit sich die Detektion von Läsionen < 1 cm effektiver gestalten würde.
Mit der vorliegenden Studie wird der Versuch unternommen, die Dichotomie von Fiktion und Wirklichkeit aufzugeben zugunsten eines Modells, das dem kognitiven Charakter sprachlicher Bedeutungen Rechnung trägt und es so ermöglicht, der Funktion nichtfiktionaler Konzepte als Orientierungspunkte bei der Sinnkonstitution fiktionaler Erzähltexte gerecht zu werden. Dabei werden Ergebnisse der kognitiven Semantik für die Literaturwissenschaft fruchtbar gemacht, um ein neues theoretisches Fundament zur Differenzierung zwischen fiktionalen und nichtfiktionalen Teilen fiktionaler Erzählliteratur zu schaffen.
Die Ergebnisse dieser Untersuchung zeigen, dass trotz der Verwendung von photochromen Unterfüllungsmaterialien, bei der Revision einer Kunststofffüllung eine Überextension der Kavität auftritt. In dieser Studie konnte kein signifikanter Unterschied in dem Zahnhartsubstanzverlustniveau zwischen konventionellen Kompositrestaurationen und jenen mit photochromer Unterfüllung festgestellt werden. Auch treten in beiden Gruppen Füllungsreste trotz möglichst genauer Vorgehensweise auf. Eindeutig und auch erwartungsgemäß wiesen die Kavitäten nach der Entfernung von Amalgamfüllungen keine oder nur eine minimale Überextension und keine Materialüberschüsse auf. Weiterführende Versuche werden zeigen, ob mit der Ausdehnung der farbaktiven Unterfüllung bis an die Kavitätenränder, eine deutliche Verbesserung der Revisionswerte erzielt werden kann oder nicht [57]. Dass die Revisionszeit von Kunststofffüllungsmaterialien sich durch photochrome Materialien verkürzen lässt, konnte in der vorliegenden Untersuchung eindeutig bewiesen werden. Abschließend kann man sagen, dass die Verwendung von photochromen Kunststoffen eine Erleichterung der späteren Revision ermöglicht. Die Verwendung dieser Materialien sollte, um bessere Ergebnisse im Bezug auf Vollständigkeit der Revision und Vermeidung der Überextension der Kavität zu erhalten, in einer anderen Art und Weise erfolgen. Möglich ist eine Ausdehnung dieser Unterfüllung über die komplette Kavitätenfläche. Dabei können jedoch im Frontzahnbereich ästhetische Probleme auftreten, die die Verwendung der Materialien in diesem Bereich nur auf die Unterfüllung im klassischen Sinne mit den in dieser Studie aufgeführten Nachteilen limitieren. Die hier vorliegenden Ergebnisse wurden aus einer in vitro Untersuchung gewonnen. Durch die bekannte und einfache Kavitätenform sowie durch die optimale Zugänglichkeit der Kavität können aus diesen Ergebnissen keine eindeutigen Rückschlüsse auf eine Arbeitserleichterung in vivo gezogen werden.
In der Geschichte der Wissenschaftsgeschichtsschreibung wird die Entstehungsphase der Deutschen Philologie nahezu durchgängig mit dem Hinweis auf ein gemeinsames Wissenschaftsprojekt der Brüder Jacob und Wilhelm Grimm und ihres Freundes und Kollegen Karl Lachmann verknüpft. Gelegentlich kommt noch der eine oder andere Name, meist der Georg Friedrich Beneckes, als "Gründerheroe" hinzu. Zur Beschreibung gehört auch die Erwähnung eines die Gründungsphase begleitenden "Wissenschaftskriegs" zwischen den Grimms und Friedrich H. von der Hagen. Die Gruppenbildung, die sich nach dem Selbstverständnis der Akteure und der Fremdeinschätzung durch Um- und Nachwelt als eine "Gemeinschaft von Freunden" darstellte, und das sie begleitende Streitgeschehen zwischen den verschiedenen Gruppen sind die zentralen Konstituenten des im 19. Jahrhundert entstandenen und bis heute fortlebenden "Gründungsmythos" unseres Fachs.