Refine
Year of publication
- 2005 (1229) (remove)
Document Type
- Article (540)
- Doctoral Thesis (191)
- Part of Periodical (123)
- Review (107)
- Book (68)
- Part of a Book (57)
- Report (32)
- Working Paper (29)
- Conference Proceeding (25)
- diplomthesis (14)
Language
- German (1229) (remove)
Keywords
- Rezension (21)
- Deutsch (20)
- Deutschland (20)
- Frankfurt <Main> / Universität (20)
- Johann Wolfgang von Goethe (20)
- Biographie (15)
- Literatur (15)
- Vormärz (15)
- Frankfurt <Main> (14)
- Frankfurt (12)
Institute
- Medizin (117)
- Extern (49)
- Rechtswissenschaft (42)
- Präsidium (38)
- Biochemie und Chemie (31)
- Biowissenschaften (27)
- Neuere Philologien (25)
- Physik (25)
- Erziehungswissenschaften (24)
- Geschichtswissenschaften (23)
Drei zugunerfahrene Wespenbussarde wurden nach zehn- bzw. zwölfjähriger Volierenhaltung unter mitteleuropäischen Naturtagbedingungen in Bezug auf ihr jahresperiodisches Verhalten untersucht. Registriert wurde die Flugaktivität von zwei Weibchen. Zusätzlich wurde an diesen und einem Männchen die individuelle Körpermasse im Jahresverlauf aufgezeichnet. Der Anstieg der Flugaktivität mit einem signifikanten Anteil im Oktober wird als Zugunruhe gedeutet. Die Wespenbussarde entwickelten eine deutliche Herbstzugdisposition mit individuellen Charakteristiken im zeitlichen Ablauf. Das jahresperiodische Verhalten nach der langen Volierenhaltung unter falscher Fotoperiode im Winter ist ein Indiz für das Vorliegen einer endogenen Rhythmik.
Die Blessgans (Anser albifrons albifrons) ist die arktische Gänseart, die am zahlreichsten in Westeuropa überwintert. Von 1998 bis 2002 wurden in einem internationalen Farbmarkierungsprojekt 3.740 Blessgänse mit individuell codierten Halsmanschetten gekennzeichnet, die sich im Feld mit Ferngläsern ode Fernrohren ablesen lassen. Insgesamt wurden 25.000 Beobachtungen registriert. Die Dissertation präsentiert als erste Auswertung dieses noch andauernden Langzeitprojektes 17 Kapitel, die unterschiedliche Aspekte des winterlichen Gänsezuges beleuchten. Ein großer Teil dieser Kapitel ist mittlerweile als Fachaufsätze in verschiedenen Zeitschriften publiziert. Das Zuggeschehen wird auf drei geografischen Ebenen untersucht: auf der kontinentalen Ebene (Zug von den Brut- in die Überwinterungsgebiete), dem überregionalen Niveau (Vernetzung europäischer Rastgebiete) und dem regionalen Niveau (Auswertungen der Rastbestände und Zugbewegungen in Ostfriesland, am Niederrheingebiet und dem Lauwersmeer) mit Nutzung der Rasterkartierung und der Telemetrie.
Insbesondere in einem sozial monogamen Paarungssystem unterliegt die Wahl des Paarpartners vielfältigen Beschränkungen. Infolge intrasexueller Konkurrenz und/oder aufgrund hoher Zeit- und Energiekosten der Partnersuche kann sich zumindest ein Teil der Weibchen nicht mit dem bevorzugten Männchen fortpflanzen. Die Reproduktion mit einem vergleichsweise schlechten (z.B. unattraktiven oder wenig lebenstüchtigen) Partner ist jedoch möglicherweise mit Fitnesskosten in Form einer verringerten Qualität der Nachkommen verbunden, falls diese die schlechten Eigenschaften ihres Vaters erben. Daher sollten die Weibchen sozial monogamer Vogelarten einem Selektionsdruck unterliegen, im Falle der Verpaarung mit einem schlechten Männchen die Qualität ihrer Nachkommen und somit ihre eigene Fitness nachträglich zu optimieren. Dies könnte beispielsweise durch Fremdkopulationen mit besseren Männchen oder eine adaptive Manipulation des Geschlechterverhältnisses der Nachkommen geschehen. Die Dissertation beschäftigt sich mit der Frage, ob eine dieser beiden potentiellen Strategien zur Fitnessoptimierung von Weibchen der sozial monogamen Tannenmeise Parus ater umgesetzt wird.
Die Arbeit untersucht Phänologie, Raumnutzung, Nahrungs- sowie Verhaltensökologie der am „Unteren Niederrhein“ überwinternden Bläss- und Saatgänse unter besonderer Berücksichtigung ihrer Konkurrenzsituation und der räumlichen Beweidungsrhythmik von Grünland durch Blässgänse. Hierzu wurden in den Wintern 1996/97 – 1999/00 innerhalb eines ca. 120 qkm großen Gebietes (Kreis Kleve, NRW) Erhebungen zu den Gänsezahlen, den besuchten Habitaten und ihrer Nutzungsintensität, zu Truppgrößen und -dichten sowie zu Verhaltensparametern und zum Graswachstum auf ausgewählten Grünlandflächen durchgeführt. Die Kartierung der Gänse in hoher zeitlicher und räumlicher Auflösung deckte 1997/98 und 1998/99 das gesamte Untersuchungsgebiet ab. Diese Winter bildeten die Grundlage für die Bearbeitung der Fragen zur Phänologie, Raumnutzung und Habitatwahl der Arten. Fragestellungen zur Truppgröße und -dichte, Tier- Pflanze-Interaktion, zu Aktivitätsparametern oder zur Nutzungsintensität ausgewählter Flächen durch Gänse wurden an Stichproben von ein – drei, im Einzelfall vier Untersuchungsperioden bearbeitet.
Bestandsrückgänge, bedingt durch menschliche Einflüsse, sind für die Vogelwelt Mitteleuropas seit Mitte des 19. Jahrhunderts dokumentiert (Naumann 1849). Im Laufe des 20. Jahrhunderts haben sie stark zugenommen, so dass heute in den „Roten Listen“ gefährdeter Tierarten für Vögel Deutschlands und seiner Nachbargebiete bis über 50 % der Arten als im Fortbestand gefährdet gelten (Übersichten Berthold 1990, Bauer & Berthold 1997, Bauer et al. 2002). Um für schwer zu erfassende Kleinvögel verlässliche Bestandszahlen zu erhalten, haben wir 1972 eine Bestandsüberwachungs-Studie gestartet – das „Mettnau-Reit-Illmitz“- („MRI“-) Programm. Diese Langzeit - „Volkszählung“ an Singvögeln beruht auf Ergebnissen standardisierten Fanges von Kleinvögeln, über die wir hier für einen 32-Jahre-Zeitraum für die Station Mettnau am Bodensee in Süddeutschland berichten. Vorangegangen war eine entsprechende 25-jährige Untersuchung (Berthold et al. 1998), die wir zum Vergleich heranziehen.
Während es viele Untersuchungen zu nordamerikanischen Limikolen in ihren Brut- und Rastgebieten in der nördlichen Hemisphäre gibt, weiß man sehr wenig über die Ökologie dieser Vögel in ihren tropischen Überwinterungs- und Rastgebieten. Ziel der dieser Dissertation zugrundeliegenden Untersuchungen war es, zunächs das Habitat und die Nahrungsverfügbarkeit in einem tropischen Wattgebiet zu beschreiben und die dort vorkommende Vogelgemeinschaft zu charakterisieren. Weiterhin sollten die Beziehungen zwischen den Vögeln und ihrem Nahrungshabitat analysiert und der Einfluss der Vogelkonsumption auf die tropischen Watten untersucht werden.
Reproduktive Leistung eines über zwölf Jahre brütend kontrollierten Steinkauzweibchens Athene noctua
(2005)
Ein über 12 Jahre brütend kontrolliertes Steinkauz-Weibchen zeigte eine hohe Brutortstreue und Partnertreue über drei Jahre. In 11 Brutjahren legte es 49 Eier, aus denen 36 Nestlinge das Beringungsalter (10.-14. Lebenstag) erreichten. Ab dem Alter von 10 Jahren wurden durchschnittlich 0,8 Eier pro Jahr weniger gelegt. Von den 36 Nachkommen siedelten sich 2 Weibchen und 1 Männchen selbst wieder in der untersuchten Population an. Bis zum Alter von 9 Jahren lässt sich ein deutlicher Zusammenhang zwischen Bestandsdichte der Feldmaus als Hauptbeute und dem Termin des Legebeginns feststellen.
Ein nestjunger Weißstorch aus der Gegend von Kaliningrad, Russland, wurde im Juli 2000 in der Biologischen Station Rybatschij aufgezogen und im September verspätet freigelassen. Im Rahmen eines Projektes zur Untersuchung des Orientierungsvermögens wurde er mit einem Satellitensender (14554) ausgestattet. Obwohl die Weißstörche aus dem Kaliningrader Gebiet normalerweise nach SO ziehen, wanderte der besenderte Vogel nach SW ab, überquerte das Mittelmeer von Frankreich nach Tunesien, verbrachte seinen ersten Winter und zweiten Sommer in Nordafrika und seinen zweiten Winter im Tschad-See-Gebiet im Norden von Nigeria und Kamerun. Im Sommer 2002 hielt er sich auf der Iberischen Halbinsel auf, im Winter 2002/2003 im äußersten Süden Spaniens. Im Sommer 2003 kehrte der Storch im Alter von 3 Jahren in das Verbreitungsgebiet osteuropäischer Weißstörche zurück – nach Nordpolen, nur 220 km südwestlich von seinem Geburtsort, wo er möglicherweise brütete. Der Wegzug 2003 verlief über die für osteuropäische Weißstörche typische Ostroute. In Afrika zog der Storch weit nach Westen – bis in den West-Tschad – sodass sich sein Winterquartier nur 175 km von dem Gebiet entfernt befand, das er 2002 über die Westroute erreicht hatte.
Diese praxisbezogene Einführung stellt Möglichkeiten und Grenzen des Einsatzes multivariater statistischer Verfahren in der Feldornithologie vor. Hauptkomponentenanalyse, Diskriminanzanalyse und Clusteranalyse gehören zu den wichtigsten multivariaten Verfahren in der ökologischen Forschung. Dieser Artikel liefert die theoretischen Grundlagen und ist gleichzeitig eine Orientierungshilfe für die Anwendung dieser Verfahren. Außerdem werden für jedes Verfahren Indikatoren für die Qualität der Analyse sowie Möglichkeiten der Interpretation diskutiert und anhand eines Fallbeispiels demonstriert.
Von 1994 bis 2003 erfassten wir in einem Braunschweiger Untersuchungsgebiet die Brutbesiedlung von Nistkastenrondellen (jeweils 8 Höhlen rings um einen Eichenstamm). Wenn ein Rondell im selben Jahr von 2 Brutpaaren genutzt wurde, ging in die Auswertung nur die Wahl des Erstbesiedlers ein. Erstbesiedler waren 74 x Kohlmeisen Parus major, 7 x Blaumeisen Parus caerulus, 28 x Kleiber Sitta europaea, 34 x Trauerschnäpper Fidecula hypoleuca und 4 x Stare Sturnus vulgaris. Die meisten dieser Paare wählten Nisthöhlen, deren Eingang nach Osten (NE, E, SE) zeigte. Die stärkste Bevorzugung für den wetterabgewandten Ostsektor ließ sich bei Fidecula hypoleuca feststellen. Bei Nistkästen mit nach Osten weisendem Einflugloch dürfte das Risiko für Brutverluste durch Feuchtigkeit und/oder Überhitzung minimiert werden. Allerdings kann das Ergebnis der experimentellen Studie nicht auf die Situation von Naturhöhlen übertragen werden. Denn in benachbarten Waldparzellen waren die vom Star zur Brut genutzten Naturhöhlen (n = 72) bevorzugt in westliche Richtungen orientiert. Sekundäre Höhlenbrüter können ihre Präferenz hinsichtlich der Ausrichtung des Höhleneingangs unter natürlichen Verhältnissen offenbar nur eingeschränkt oder gar nicht realisieren, weil sich das Naturhöhlenangebot witterungsbedingt vor allem im S/SW-Sektor befindet.
Die bedeutendste Entdeckung der letzten 30 Jahre in Bezug auf das Fortpflanzungsverhalten von Vögeln war die Erkenntnis, dass es bei mehr als 80% aller sozial monogamen Singvogelarten regelmäßig zu Kopulationen außerhalb des Paarbundes kommt („extra-pair copulations“; EPCs). In der Folge setzte sich eine beeindruckende Zahl von Untersuchungen mit verschiedenen Aspekten dieses Verhaltens auseinander. Neben Studien, die sich mit Unterschieden in der Häufigkeit des Auftretens von „Fremdvaterschaften” bei verschiedenen Vogelarten beschäftigten, wurden vor allem Untersuchungen zum Kosten und Nutzen von EPCs für Männchen und Weibchen durchgeführt. Auf der Basis eigener Untersuchungen, die dazu dienten, das genetische Paarungssystem von sozial monogamen Kohl- und Tannenmeisen (Parus major and P. ater) zu ergründen, werden hier einige Resultate dieser Bemühungen und auch die ihnen zugrundeliegenden Überlegungen dargestellt. Kosten von EPCs beinhalten für Weibchen möglicherweise eine Reduktion in der Brutfürsorge durch die Männchen, weil die Anzahl eigener Nachkommen und damit der Fortpflanzungswert einer Brut für „betrogene“ Männchen abnimmt. In Übereinstimmung mit dieser Hypothese fanden wir, dass sich die Brutverteidigung männlicher Kohlmeisen nach der Anzahl eigener Nachkommen und nicht nach der Brutgröße richtet. Außerdem fütterten „betrogene“ Männchen ihre Bruten weniger als nicht „betrogene“ Männchen. Wenn EPCs den Weibchen Kosten verursachen, so muss auf der anderen Seite ein entsprechender Nutzen vorhanden sein, da Selektion sonst zum Verschwinden dieses Verhaltens führen sollte. Während männliche Kohl- und Tannenmeisen ihren Fortpflanzungserfolg durch EPCs direkt erhöhen können, ist ein Nutzen für die Weibchen nicht derart offensichtlich. Bei der Analyse einer großen Zahl von Tannenmeisenbruten konnten wir keinerlei Hinweis dafür finden, dass die vieldiskutierten „Gute Gene”-Modelle den Nutzen von EPCs für Weibchen erklären. Würden Weibchen durch EPCs „bessere“ oder „kompatiblere“ väterliche Gene für die betreffenden Nachkommen erhalten, wäre zu erwarten, dass EPY ihren Halbgeschwistern in irgendeiner Form überlegen sind. Zwischen den beiden Halbgeschwistergruppen fand sich jedoch weder in Bezug auf die Überlebenswahrscheinlichkeit noch in Bezug auf den Fortpflanzungserfolg im ersten Brutjahr ein Unterschied. Aus diesen und anderen Befunden wird geschlossen, dass „Gute Gene”-Modelle das weit verbreitete Auftreten von EPCs bei Vögeln alleine kaum erklären können und dass wahrscheinlich mehr als ein einzelner Selektionsfaktor die Evolution dieses Verhaltens bei Vögeln beeinflusst hat.
In der Hölderlin-Forschung der letzten Jahrzehnte ist immer deutlicher geworden, wie anspielungsreich und wie komplex Hölderlins Werk ist. Staunend, dankbar und mit großem Gewinn nimmt man die überreichen Forschungsbeiträge zur Kenntnis, die die vielfältigen Bezüge von Hölderlins Werk auf die Antike, auf die Bibel, auf theologische und philosophische Traditionen aufdecken. Ein herausragendes Ergebnis dieser differenzierten Kommentierungsarbeit ist die grundlegende These, daß Hölderlins Werk der bedeutendste Beitrag der Literatur um 1800 zu einer poetischen Geschichtshermeneutik und Geschichtsphilosophie sei. Diese geschichtsphilosophische Deutung Hölderlins läßt sich gut mit politisch-revolutionären und utopischen Deutungen verbinden.
In der Balladenforschung besteht Konsens darüber, daß die Kunstballade in der zweiten Hälfte des 18. Jahrhunderts begründet wird. Strittig scheint nur, wem man die Priorität zuweist: Gleim oder nicht doch eher Bürger. Freilich ist die Gattung der Wenn Goethe, um dessen Balladendefinition es im Folgenden genauer gehen soll, die Ballade mit Bezug auf ein dreigliedriges Gattungssystem definiert, dann hat dies auch den skizzierten gattungstheoretischen Zusammenhang. Goethe vereinfacht das Gattungssystem. Er sieht klar, daß die grundlegenden ästhetischen Möglichkeiten, die die Poesie bietet, durch die drei Hauptgattungen hinreichend beschrieben sind. Eine Kategorie "beschreibende bzw. didaktische Gattung" stünde zu diesen ästhetischen Kategorien von Epik, Lyrik, Dramatik geradezu quer! Denn beschreibend und didaktisch kann jede Form von Literatur sein; jede Form kann solche Elemente in sich aufnehmen. Zugleich unterläuft Goethes Definition aber auch das in der Gattungspoetik um 1800 verbreitete triadische Gattungsmodell, das Epik und Lyrik als Gegensätze begreift, die in der Dramatik "aufgehoben" werden. Sie kehrt dieses, auch geschichtsphilosophisch begründete, Modell geradezu um: In der Ballade ist zu einer organischen Einheit zusammengezogen, was sich nun von hier aus differenzieren kann. So ist Goethes Balladendefinition auch ein Versuch, ein ästhetisches Einheitskonzept zu formulieren angesichts fortschreitender kultureller und sozialer Differenzierung.
"Beykommendes wünsche für den Damenkalender geeignet." Mit diesen lapidaren Worten übersandte Goethe seinem Verleger Johann Friedrich Cotta am 8. Juli 1808 die erste Erzählung aus "Wilhelm Meisters Wanderjahre". Der Abdruck des Textes leitete eine sich (mit einer längeren Unterbrechung) über zehn Jahre hinweg erstreckende Veröffentlichungstätigkeit ein, während der Goethe einzelne Partien seines Romans im "Taschenbuch für Damen" vorabdrucken ließ. Diese Vorabdrucke waren Bestandteil einer gezielten Publikationsstrategie zur Gewinnung der Leser. Es soll deshalb hier gezeigt werden, wie Goethe versuchte, durch eine geschickte Lesersteuerung das Interesse an seinem Roman bleibend wachzuhalten. Zugleich gilt es, den Nachweis zu erbringen, daß Goethe die "Wanderjahre" nicht nachträglich aus den Almanachdrucken zusammengestellt, sondern daß er die Beiträge für das "Taschenbuch für Damen" aus dem im Entstehen begriffenen Romankomplex ausgekoppelt und im Hinblick auf dessen baldiges Erscheinen vorab veröffentlicht hat.
In der Geschichte der Literatur ist eine Schaltstelle dafür die Konstituierung der Volkspoesie durch Herder und Goethe in der zweiten Hälfte des 18. Jahrhunderts. Diese programmatische Neuorientierung der Literatur in der sog. "Sattelzeit" (Koselleck) der zweiten Hälfte des 18. Jahrhunderts berührt sich mit der Frage, ob, wie und wann sich Elite-Kultur und Volks- bzw. neutraler: populäre Kultur differenzieren, insofern sich entsprechende Wahrnehmungsmuster herausbilden. Sie berührt sich auch mit dem komplizierten Verhältnis von Mündlichkeit und Schriftlichkeit im Zuge der allmählichen Durchsetzung des Buchdrucks. Und sie berührt sich schließlich mit der Frage nach der Entstehung moderner Unterhaltungskultur. Um diese Aspekte soll es im Folgenden gehen.
Hyperions Melancholie
(2005)
Analytische Hermeneutik
(2005)
"Muß [...] der Begriff ´Hermeneutik´ noch sein? Im 20. Jh. wurde er am intensivsten in philosophischen Diskursen verhandelt. Diese Diskussionstradition ist für meine Interessen nicht sonderlich fruchtbar, da ich nicht auf den urwesentlichen Modus unseres Seins oder eine grundsätzliche Kritik aller abendländischen Metaphysik abziele. Mit einer ausgeprägten Vorliebe für Theorien mittlerer Reichweite geht es mir in erster Linie um eine Reflexion unseres Geschäfts als Philologen. Fruchtbar dafür scheint mir die Anknüpfung an die philologische Tradition der Hermeneutik wie sie etwa im bereits zitierten August Boeckh greifbar ist. Nicht Welterklärung, sondern Reflexion philologischer Praxis ist das Ziel."
Die fortschreitende Stickstoffsättigung infolge anhaltend hoher N-Einträge (BAYSTMLF 2004, BMVEL 2005) verändert den Stoffhaushalt von Wäldern tiefgreifend und führt je nach Standort mittel- bis langfristig zu Bodenversauerung, empfindlichen Nährelementverlusten und -imbalancen sowie Änderungen des Wuchs- und Konkurrenzverhaltens von Bestand und Bodenorganismen. Diese Prozesse sind durch zahlreiche Fallstudien gut dokumentiert (z.B. DISE et al. 1998, GUNDERSEN et al. 1998, ROTHE et al. 2002, BERNHARDT 2005) und werden in internationalen Langzeitmonitoring-Programmen (UN/ECE 1998; KÖLLING 1999, BORKEN & MATZNER 2004) verfolgt. Durch die chronischen N-Einträge wird jedoch nicht nur das Ökosystem Wald beeinträchtigt. Auch im Wasserkreislauf nachgeschaltete Systeme wie Grund- und Oberflächengewässer sind von der Stickstoffsättigung betroffen. Das Bayerische Landesamt für Wasserwirtschaft (BAYLFW) machte bereits 1992 darauf aufmerksam, dass die depositionsbedingte Nitratkonzentration in der Grundwasserabflussspende in Bayern rein rechnerisch im Mittel etwa 30 mg l-1 betragen müsste, wenn die Ökosysteme keinen Stickstoff zurückhalten würden (BAYLFW 1992). Aufgrund der großen Bedeutung der N-Sättigungsproblematik hat die Bayerische Landesanstalt für Wald und Forstwirtschaft den N-Status des Waldes mit einer landesweiten Nitratinventur erfasst (GENSIOR et al. 2002, GENSIOR et al. 2004, MELLERT et al. 2005a,b). Neben der statistischen Übersicht über die Verhältnisse an den Inventurpunkten dient die Inventur der Regionalisierung des N-Status der Wälder mit einem stochastischen Modell, welches in Zusammenarbeit mit der TUM erarbeitet wurde. Das oberste Ziel ist es, mit der hieraus resultierende Karte Risikogebiete zu identifizieren. Die bayernweite Übersicht stützt sich auf die Nitratkonzentration im Boden in Verbindung mit flächenhaft vorliegenden Daten zu N-Deposition, Klima, Standort und Bestand. Die Basis für die Regionalisierung bilden die an 399 Inventurpunkten gewonnenen Ergebnisse (Bayern ohne Alpenraum). Zentraler Parameter und Zielgröße für die statistische Modellierung ist die Nitratkonzentration in der Bodenlösung unterhalb des Hauptwurzelraumes, die in den Jahren 2000/2001 im Rahmen der „Nitratinventur Bayern“ erhoben wurde. Die Ergebnisse der Nitratinventur und der Regionalisierung stellen die derzeit beste Grundlage für die großräumige Beurteilung der Boden- und Wasserschutzfunktion des Waldes in Deutschland dar und geben Hinweise für eine zielgerichtete Bewirtschaftung der Wälder.
Eine zielgerichtete Bewirtschaftung der Wälder im Hinblick auf die fortschreitende N-Sättigung fordert entsprechende Geoinformationen. Auf der Basis der Ergebnisse der Nitratinventur Bayern (Gensior et al 2003b, Mellert et al. 2005a) wurde eine Karte des Risikos erhöhter Nitratkonzentrationen für das Land Bayern erstellt (Mellert 2005c). Die Bayernkarte liefert Informationen über die durchschnittliche Situation in den forstlichen Wuchsgebieten und dient der Identifizierung von Problemregionen. Als Übersichtskarte kann sie jedoch die Bedürfnisse auf regionaler Ebene, z.B. für ein Wuchsgebiet, kaum befriedigen. Hierzu ist eine räumliche Präzisierung der Geodaten in einem detaillierten Maßstab erforderlich. Die bayernweite Regionalisierung basiert auf der in den Jahren 2001/2002 durchgeführten Nitratinventur im 8 x 8 km Raster (Level-I/BZE) an 399 Punkten im Flachland. Die Anzahl von Inventurpunkten in den einzelnen Wuchsgebieten ist daher sehr begrenzt. Zur Informationsverdichtung der kleinmaßstäbigen Bayernkarte auf den größeren Maßstab der Karte für den Großraum München wurden detaillierte Informationen aus einer 1998 durchgeführten Sickerwasserstudie (Rothe & Mellert 2004) herangezogen. Im vorliegenden Beitrag wird die Möglichkeit eines Downscalings durch ein genestets Verfahren vorgestellt. Die auf einem logistischem Regressionsmodell basierende Regionalisierung auf bayerischer Ebene (Meller et al. 2005c) wird hierbei mit den regionalen Daten durch ein multiples Regressionsverfahren verknüpft. Dank einer ins Projekt integrierten Pilotstudie zur Fernerkundung von Waldtypen konnte eine geeignete Waldkarte für den Raum München durch Klassifikation von Landsat-Daten bereit gestellt werden.
Die Definition der N-Sättigung von Wäldern wurde bisher überwiegend an N-Haushaltsgrößen geknüpft (ÅGREN & BOSATTA 1988, ABER et al. 1989, KÖLLING 1991, BML 2000). Aber auch mit vegetationskundlichen Methoden ist es möglich, Veränderungen des N-Status zu erkennen (ROST-SIEBERT & JAHN 1988, DIEKMANN & DUPRE 1997, BRUNET et al. 1998, DIEKMANN et al. 1999, FISCHER 1999, LAMEIRE et al. 2000, HOFMEISTER et al. 2002, BERNHARDT 2005). Dies geschieht oftmals mit Hilfe der Stickstoff- und Reaktions-Zeigerwerte nach Ellenberg (ELLENBERG et al. 2001). Sie können damit zur Indikation des Standortzustands von Wäldern und seiner Änderungen herangezogen werden. Im vorliegenden Aufsatz wurde untersucht, welchen Beitrag die Zeigerwerte der Bodenvegetation zur Vorhersage erhöhter Nitratkonzentration unter Wäldern leisten können. Die Nitratinventur Bayern (MELLERT et al. 2005a, 2005b), bei der auch die Bodenvegetation aufgenommen wurde, bot die Möglichkeit, das Indikatorpotential der Bodenvegetation als Zeiger für Nitratausträge zu prüfen. Die Analyse bietet überdies Ansatzpunkte, zwischen einem durch das Standortpotential bedingten Risiko und dem durch N-Depositionen als anthropogene Ursache für Nitratausträge zu unterscheiden. Zudem wurde geprüft, ob das zur Regionalisierung eingesetzte logistische Regressionsmodell (MELLERT et al. 2005c) durch die Hinzunahme der N-Zeigerwerte verbessert werden kann. Wegen der zu erwartenden Korrelation der Zeigerwerte mit den im Modell verwendeten Standortsindikatoren erhob sich insbesondere die Frage, ob der Zeigerwert die im Modell benutzten Prädiktoren lediglich (z.T.) ersetzt oder ob er die Prognosemöglichkeiten verbessert. Eine wirkliche Verbesserung der Vorhersage ist dann gegeben, wenn der N-Zeigerwert als zusätzlicher Prädiktor ins Modell aufgenommen werden kann und sich die unerklärte Varianz hierdurch signifikant verringert. Von praktischer Bedeutung könnten auch Korrelationen innerhalb der durch die Haupteffekte (Faktoren Wald- und Substrattyp) festgelegten Straten sein.
Ein Schwerpunktthema der AFSV-Tagung 2005 in Kaschubien war der „Methodenvergleich der Forst-lichen Standorts- und Vegetationskartierung“, den die „Arbeitsgruppe Waldtypologie“ der IUFRO im Jahr 1959 beschlossen hatte und der in den Jahren 1960 und 1961 durchgeführt wurde (BąKOWSKI 1971). Aktueller Anlass ist der derzeitige Versuch einer „Rahmenklassifikation der Waldstandorte Deutschlands“, wie er von KOPP (2004) in Heft 1 von Waldökologie online angeregt wurde. Auf der AFSV-Tagung wurden die drei im Waldgebiet von Kartuzy / Pommersche Seenplatte, damals ange-wandten Verfahren und ihre Fortentwicklung vorgestellt und diskutiert: 1. Phytosoziologische Methode (Kartierung der potenziellen natürlichen Vegetation; MATUSZKIEWICZ 1971), 2. Kombinierte Methode (Kartierung von Stamm- und Zustandseigenschaften; LANGGUTH et al. 1965, KOPP 1971), 3. Waldtypologische Methode (Standortskartierung nach der Methode des Forstlichen Forschungsin-stitutes in Warszawa, TRAMPLER et al. 1971). Aus den Diskussionen vor Ort ergab sich, dass ein Informationsdefizit über den heutigen Stand der letztgenannten Methode besteht. Die nachfolgenden Ausführungen sollen dieses Defizit beheben. Das polnische Verfahren war zum Zeitpunkt des IUFRO-Vergleiches 1960 sehr einfach gehalten. Die an-gewandte Methodik war in „Typy siedliskowe lasu“ (Standortstypen des Waldes), einer Arbeit von L. MROCZKIEWICZ und T. TRAMPLER (Prace IBL nr 250, PWRiL 1964) erläutert. In den letzten 40 Jahren wurde das Verfahren jedoch wesentlich weiter entwickelt und der kombinierten Methode deutlich an-geglichen. Heute wird die forstliche Standortkartierung in Polen durch die Anweisung für Forsteinrich-tungsarbeiten (Instrukcja urzadzania lasu, Teil 2) von 2003 sowie Standörtliche Grundlagen des Waldbaus (Siedliskowe podstawy hodowli lasu) von 2004 geregelt. Um die Vergleichbarkeit der Ergebnisse zu gewährleisten, ist die Methodik in ihren Grundzügen beibehalten worden.
Das Verhältnis von Standort und Vegetation Wie sollte man das Verhältnis von Standort und Vegetation beschreiben? Viele Autoren bezeichnen den Standort als die „Gesamtheit der an einem bestimmten Ort auf die Vegetation wirkenden Einflüsse“ (u. a. GLAVAC 1996). Mit anderen Worten ist der Standort die Gesamtheit der Einwirkungen auf die Vegetation. Kann man sich das ähnlich wie in einem Billardspiel vorstellen? ...
Die Flora-Fauna-Habitat-Richtlinie der Europäischen Union von 1992 dient dem Ziel der Erhaltung und Förderung der biologischen Vielfalt. Sie bildet zusammen mit der Vogelschutz-Richtlinie die Grundlage für das Schutzsystem "Natura-2000", das die EU-Staaten dazu verpflichtet, einen länderübergreifenden Biotopverbund zu etablieren. In den Anhängen der Richtlinien wurde festgelegt, welche Arten und Lebensräume in Europa unter Schutz zu stellen sind ("Nature and Biodiversity" Homepage der EU). Bayern trägt aufgrund seiner geografischen Lage in Mitteleuropa vor allem für Waldlebensräume eine hohe Verantwortung. Wald ist daher auch mit etwa 450.000 ha (56%) deutlich überproportional an den gemeldeten FFH- und SPA-Gebieten beteiligt ("Natura-2000 im Wald"), zwei Drittel davon in den Alpen (Abb. 1). In den bayerischen Waldgebieten spielen Informationen über den Standort als Entscheidungsgrundlage für die Ausscheidung von FFH-Lebensraumtypen eine entscheidende Rolle.
Die mechanische Streckung hat einen großen Einfluss auf Keratinozyten und bei der Transduktion dieses Reizes nehmen ßl-integrine, E-Cadherine und EGF-Rezeptoren eine zentrale Rolle ein: Eine einfache mechanische Dehnung von HaCaT-Zellen um 10% fuhrt innerhalb von 5min zu einer schnellen Umorientierung der ßl-Integrine auf der Zellmembran, ohne dass sich dabei die Menge dieser Oberflächenrezeptoren ändert. Die Integrine sammeln sich in der basalen Membran zu größeren Adhäsionskomplexen. Dies hat Auswirkungen auf das Adhäsionsverhalten der Zellen. Eine Streckung bewirkt, dass die mechanisch stimulierten Zellen gegenüber den Kontrollzellen sowohl schneller an das Substrat anheften als auch eine stärkere Zell-Matrix-Adhäsion aufweisen. Das unterschiedliche Adhäsionsverhalten auf den verschiedenen Substraten (Arginin+Serum, Fibronektin, Kollagen) und Experimente mit funktionsblockierenden Antikörpern gegen ßl-Integrine sind Beweise für die Beteiligung dieser Oberflächenrezeptoren an diesem Vorgang. Da adhärente Zellen, wie Keratinozyten. neben Wachstumsfaktoren den Zell-Matrix-Kontakt benötigen, um in die S-Phase eintreten zu können, hat das unterschiedliche Adhäsionsverhalten von gestreckten und ungestreckten Zellen wiederum Einfluss auf die Proliferation. Diese ist bei den mechanisch gereizten Zellen im Vergleich zu den Kontrollzellen gesteigert und zwar im direkten Verhältnis zu der mechanisch induzierten Steigerung der Adhäsion. Im Rahmen einer Rezeptor-Transaktivierung (siehe vorne) kooperieren ßl-Integrine und E- Cadherine sowohl räumlich als auch funktionell mit dem EGF-Rezeptor bei der Übermittlung des Dehnungsreizes: Räumliche Interaktionen: Eine Koclusterung von ßl-Integrinen mit dem EGF-Rezeptor tritt bereits nach 5minütiger mechanischer Reizung an den Zell-Zell-Grenzen und den Fokalkontakten auf. Eine Kolokalisation zwischen E-Cadherinen und EGF-Rezeptoren besteht ebenfalls, wobei sich allerdings Kontrolle und Streckung nicht unterscheiden. Funktionelle Interaktionen: Eine mechanische Stimulation führt zu einer transienten Aktivierung des EGF-Rezeptors (Aktivitätsmaximum: 5min) und der MAP-Kinase ERK1/2 (Aktivitätsmaximum: 15min). Diese streckungsinduzierte Aktivierung von ERK1/2 wird sowohl durch die Blockierung der ßl-Integrine und E-Cadherine als auch durch die Inhibition des EGF-Rezeptors unterbunden. Weiterhin hemmt die Blockierung der Adhäsionsmoleküle die Aktivierung des EGF-Rezeptors. Dies spricht für die Transaktivierungs-Theorie des EGF- Rezeptors durch die ß1-Integrine und E-Cadherine. Die Zellstrukturen und viele zelluläre Prozesse werden durch eine zellintern erzeugte Grundspannung im Zytoskelett aufrechterhalten. Ohne eine Verankerung der Zelle an der ECM oder den Nachbarzellen, was durch die Blockierung der ßl-Integrine und E-Cadherine erreicht wird, bricht dieses fein ausbalancierte System zusammen; die Zytoskelett-Elemente F-Aktin, Intermediär-Filamente und Mikrotubuli zerfallen. Anhand der Ergebnisse dieser Arbeit wird ersichtlich, welche enorme Bedeutung den Adhäsionsrezerptoren - ßl-Integrine und E-Cadherine - für die Formstabilität und die funktionellen Eigenschaften der Zelle zukommt. Ein Ausfall dieser Adhäsionsmoleküle beeinträchtigt sowohl die Form der Zelle (Adhäsionsvorgänge und Tensigrity-Modell) als auch die Transduktion von Umweltreizen durch die Plasmamembran, z.B. einer mechanischen Stimulation, die letztendlich das Überleben der Zelle und die Proliferation bestimmt. Daher wäre denkbar, das die Ergebnisse dieser Grundlagenforschung in Zukunft zur Behandlung von Hautkrankheiten herangezogen werden können.
Die Trichterbrust (Pectus excavatum) ist die häufigste Brustwandfehlbildung. Sie ist durch eine Abwinklung des Brustbeines nach dorsal, beginnend am manubriosternalen Übergang mit einer maximalen Einziehung am Xiphoid, gekennzeichnet. Sie tritt im Verhältnis von 3:1 zwischen männlichen und weiblichen Geschlecht auf. Die Inzidenz liegt bei 1:300 bis 1:1000 Lebendgeburten. Nur etwas 5% der Patienten mit Trichterbrust zeigen funktionelle Beschwerden mit kardialer oder pulmonaler Symptomatik. Die weitaus häufigere (ca. 95%) funktionell asymptomatische Form der Trichterbrust kann eine erhebliche psychosoziale Beeinträchtigung für den Patienten darstellen und ist dann eine Operationsindikation. Hier stellt das Einbringen eines Silikonimplantates eine einfache und komplikationslose Möglichkeit der Trichterbrustkorrektur dar. Seit 1977 wurden 46 Patienten (m:w -> 1,8:1) ohne kardiopulmonale Symptome mit einem „custom-made“ Implantat aus Hartsilikon behandelt. Präoperativ wird ein Abdruck der Deformität ausgeformt. Nach dieser individuellen Form erfolgt die Herstellung eines vollständig polymerisierten Hartsilikonimplantats (medical grade). Die Implantate wurden über einen subxiphoidalen oder submammären Zugang subkutan bzw. partiell submuskulär eingebracht. Hierdurch wird der Defekt exakt ausgeglichen. Die Früh- und Spätergebnisse der Trichterbrustkorrektur mit Hartsilikonimplantaten wurden retrospektiv durch eine Aufarbeitung der Patientenakten und einen Fragebogen untersucht. Die Nachuntersuchungszeit lag im Durchschnitt bei 12,7 Jahren, das längste Follow-up betrug 25 Jahre. Häufige Früh-Komplikationen waren Serome (28%), die gelegentlich prolongiert bzw. rezidiviert auftraten (8%). Implantatinfekte traten nicht auf. In 6% der Fälle wurden initial zu grosse Implantate revidiert und verkleinert. In je 4% wurden Implantate revidiert und refixiert oder entfernt. Über vorübergehende Sensibilitätsstörung berichteten 19% der Patienten. Trotz partiell-submuskulärer Einbringung gaben 27% der Patienten sichtbare und bis 54% bzw. 38% tastbare Implantatränder in Ruhe bzw. Bewegung an. Dennoch empfanden 84% der Patienten das Implantat als eine psychische Hilfe. Die subjektive Zufriedenheit wurde von 84% der Patienten mit gut, von 12% mit befriedigend und von 4% mit ungenügend angegeben, d.h. 96% der Patienten bewerteten das klinische Ergebnis als gut oder befriedigend. Bei der Korrektur der Trichterbrust ohne kardiopulmonale Störungen ist das Ziel der Operation ein optischer Ausgleich des knöchernen Defekts. Die Beseitigung der psychosozialen Folgen der Deformität ist das wesentliche Erfolgskriterium. Da bei der Trichterbrustkorrektur mit Hartsilikonimplantaten im Gegensatz zu thoraxchirurgischen Verfahren die Integrität und Stabilität des Thorax nicht beeinträchtigt wird, hat sie sich bei der funktionell asymptomatischen Trichterbrust zur Methode der Wahl entwickelt. Die Methode wird seit den 70er Jahren angewandt und seither konsequent verbessert. Sie stellt eine simple und schnelle Möglichkeit mit guten Erfahrungswerten und klinischen Ergebnissen zur Korrektur der Trichterbrust dar. Sie führte auch in der Langzeitbeurteilung bei 96% der Patienten zu einem guten oder befriedigenden klinischen Resultat. Es traten keine schweren Komplikationen auf.
In dieser Arbeit werden vorwiegend taxonomische und nomenklatorische Angaben zu Cryptini und in einem Fall auch zu Phygadeuontini gemacht. Aus der Westpaläarktis sind derzeit etwa 35 Gattungen von Cryptini bekannt. Einige davon wurden in den letzten Jahrzehnten bereits revidiert (z.B. HORSTMANN 1984, 1987, 1990a, VAN ROSSEM 1966, 1969a, 1969b, 1971, SCHWARZ 1988, 1989, 1990a, 1990b, 1997). Inzwischen konnte weiteres Material untersucht werden, wodurch in einigen Fällen neue Erkenntnisse gewonnen werden konnten. In dieser Arbeit werden vor allem Ergänzungen von Revisionen westpaläarktischer Cryptini gemacht. In einigen Fällen erstrecken sich die Angaben auch auf andere Gebiete (Ostpaläarktis, Orientalis, Äthiopis), Zusätzlich werden Ergebnisse von Typenuntersuchungen angeführt. Bei den untersuchten Typen werden wahlweise die genauen Angaben auf den Etiketten wiedergegeben oder, wenn diese in anderen neueren Publikationen erwähnt sind, weggelassen. Nach den Angaben zum Typus bzw. zu den Funddaten bei zusätzlichem Material wird jeweils der Aufbewahrungsort angegeben. Die Reihung der hier behandelten Gattungen und Arten erfolgt alphabetisch. Bei der Auflistung des untersuchten Materials werden entweder die genauen Funddaten, besonders bei Material außerhalb von Europa, oder nur die Länder aufgelistet. Inseln werden, da tiergeografisch besonders interessant, gesondert angeführt.
Im Rahmen des Projektes SPURT (Spurenstofftransport in der Tropopausenregion) als Teil des deutschen Atmosphärenforschungsprogramms AFO 2000 wurden bei 8 Messkampagnen mit insgesamt 36 Flügen innerhalb eines Beobachtungszeitraums von zwei Jahren (Nov. 2001 bis Juli 2003) Spurengasmessungen in dem Breitenbereich zwischen 35°N und 75°N durchgeführt. Für die Messungen der Spurengase N2O, F12, SF6, H2 und CO wurde der vollautomatisierte in-situ GC (Gaschromatograph) GhOST II (Gas Chromatograph for the Observation of Stratospheric Tracers) entwickelt und eingesetzt. Das Ziel dieser Messungen war die Untersuchung der jahreszeitlichen Variabilität der Spurengase in der oberen Troposphäre und untersten Stratosphäre (UT/LMS: Upper Troposphere/Lowermost Stratosphere), um die Transport- und Austauschprozesse in der Tropopausenregion besser zu verstehen. Zur Untersuchung von Transport und Mischung in der UT/LMS wurden die Rückwärtstrajektorien entlang der Flugpfade, die Verteilungen der Tracer N2O, F12, SF6, CO und CO2 (MPI für Chemie in Mainz), die Tracer/Tracer-Korrelationen N2O/F12, N2O/O3 F12/O3 und SF6/O3 und die Verteilungen des aus SF6-Messungen berechnete mittlere Alters der Luft herangezogen. Zusätzlich wurden die simultanen Messungen der beiden Alterstracer CO2 und SF6 genutzt, um die Propagation der Amplitude des troposphärischen CO2-Jahresgangs in die LMS zu bestimmen und daraus mit Hilfe eines empirischen Altersspektrums den Eintrag und die mittlere Transportzeit aus der Troposphäre in die unterste Stratosphäre zu quantifizieren. Grundsätzlich muss die LMS in zwei Bereiche eingeteilt werden – die Übergangsschicht („tropopause following layer“) bis etwa 20-30 K über der potentiellen Temperatur der lokalen Tropopause [Hoor et al., 2004] und die freie LMS oberhalb dieser Schicht. Als wesentliche Unterscheidungsmerkmale beider Bereiche wird die mittlere Transportzeit des Eintrags troposphärischer Luft identifiziert. Aus Trajektorienuntersuchungen und Tracerverteilungen (Kap. 3.4) kann gezeigt werden, dass der Transport in die Übergangsschicht und die Mischungsprozesse in diesem Bereich auf der Zeitskala der mesoskaligen troposphärischen Prozesse ablaufen. Im Gegensatz dazu werden aus der Massenbilanz (Kap. 5.3) mittlere Transportzeiten aus der Troposphäre in die freie LMS von einigen Wochen bis zu mehreren Monaten abgeleitet. Außerdem konnte nachgewiesen werden, dass der troposphärische Eintrag in der freien LMS fast ausschließlich auf quasihorizontale isentrope Einmischung aus den Tropen über die Transportbarriere des Subtropenjets zurückzuführen ist. Nur im Sommer und Herbst konnte auch oberhalb der Übergangsschicht für einzelne Messungen ein Einfluss aus der extratropischen Troposphäre beobachtet werden. Die in dieser Arbeit untersuchten Tracerverteilungen und -korrelationen (Kap. 4) und die Verteilung des mittleren Alters (Kap.5.2) in der LMS zeigen einen Jahresgang mit einem maximalen troposphärischen Einfluss im Oktober und einem maximalen stratosphärischen Einfluss im April. Diese saisonale Charakteristik in der freien LMS kann durch die saisonalen Änderungen des Verhältnisses von Abwärtstransport aus der Overworld und quasihorizontalem Transport aus den Tropen und durch die mit den jeweiligen Transportprozessen assoziierte mittlere Transportzeiten erklärt werden, die aus Massenbilanzrechnungen bestimmt wurden. Es wird gezeigt, dass der überwiegende Eintrag von troposphärischer Luft in die LMS im Sommer und Herbst stattfindet, wobei im Mittel die kürzesten mittleren Transitzeiten (unter 0.3 Jahre) für den August und die längsten Transitzeiten (über 0.6 Jahre) für den Mai berechnet werden. Aus den Ergebnissen wird gefolgert, dass ein ausgeprägter isentroper Austauschprozess über den Subtropenjet im Sommer bis in den Herbst hinein der dominierende troposphärische Einfluss in der LMS bis in den Mai ist. Der Vergleich zwischen SPURT und anderen in der UT/LMS im Zeitraum von 1992 bis 1998 durchgeführten Messkampagnen zeigt einen systematischen Unterschied in den N2O/O3-Korrelationen. Die Zunahme von O3 relativ zu N2O in der LMS ist um etwa 6.5 ppb O3 pro 1 ppb N2O bzw. etwa 40% größer als die Zunahme bei jahreszeitlich vergleichbaren früheren Kampagnen. Durch eine weitergehende Analyse der Messungen, z.B. durch den Vergleich der N2O-Verteilungen in der LMS bei verschiedenen Messkampagnen, und zusätzlichen Informationen aus Satelliten- und Ballonmessungen wird abgeleitet, dass diese Änderung der N2O/O3-Korrelationen im Wesentlichen auf einen im Zeitraum von SPURT stärkeren quasihorizontalen Transport aus den Tropen in die Extratropen im Bereich des so genannten „tropical controlled transition layer“ [Rosenlof et al., 1997] zwischen 16-21 km (bzw. Θ ≈ 380-450 K) zurückzuführen ist. In Kooperation mit B. Bregman wurden mit dem Chemie-Transport-Modell TM5 des KNMI die Verteilungen von SF6 und CO2 in der Troposphäre und Stratosphäre, unter den Zielsetzungen Evaluation des Modelltransports und Erweiterung des Datensatzes von SPURT auf globalen Maßstab, für den Zeitraum 1.1.2000 bis 31.12.2002 modelliert. Dabei konnte gezeigt werden, dass bei Modellstudien zur Evaluation des Transports mit Hilfe von Alterstracern nicht nur troposphärisch monoton steigende Tracer wie SF6 sondern auch saisonal variable Tracer wie CO2 verwendet werden müssen. Bei dem Vergleich der Modellergebnisse des TM5 mit ER2- und SPURTMessungen zeigt sich, dass das Modell zum jetzigen Zeitpunkt in der Lage ist, das mittlere Alter in der unteren Stratosphäre und die SF6- und CO2-Verteilungen in der LMS qualitativ richtig wiederzugeben. Das mittlere Alter in der unteren Stratosphäre wird um etwa 0.5 bis 1 Jahr in den Tropen über- und in den Extratropen unterschätzt. Die vertikalen Gradienten im Modell für SF6 und CO2 in der LMS sind, insbesondere im Winter und Frühjahr, zu gering. Die Amplitude des CO2-Jahresganges in der oberen Troposphäre und in der LMS wird durch das Modell unterschätzt, während der saisonale Verlauf des Jahresganges richtig wiedergegeben wird. Im Moment wird vermutet, dass eine zu starke isentrope Mischung zwischen Tropen und Extratropen und/oder ein zu geringer Aufwärtstransport in der extratropischen Troposphäre im Sommer und Herbst die Ursachen für die beobachteten Abweichungen zwischen Modell und Messung sind.
Die in den hier durchgeführten Versuchen gewonnenen Ergebnisse und Messwerte lassen eine Verwendung eines Flusssäure-Phosphorsäure-Gemisches nicht nur wegen der toxischen Wirkung auf den menschlichen Organismus zum jetzigen Zeitpunkt und beim jetzigen Stand der Forschung für die Adhäsive Scotchbond 1, Syntac Sprint und Prime & Bond NT nicht sinnvoll erscheinen. Die Konditionierungsergebnisse des Säuregemisches erreichten nicht die gewünschte Qualität. Die resultierenden Haftwerte der abgescherten Kompositzylinder lagen alle unter denen von MAY (2000) bei herkömmlicher Phosphorsäurekonditionierung gemessenen Werten. Bei entsprechender Weiterentwicklung dieses Gemisches soll eine spätere Anwendung jedoch nicht ausgeschlossen werden. Die Applikation von Flusssäure in praxi sollte derzeit auf die Konditionierung von Keramikflächen beschränkt bleiben. Aqua dest. und Ringerlösung sind beide als Spülmedium für eine Dentinliquorflusssimulation grundsätzlich geeignet und einem Versuchsaufbau ohne Dentinliquorflusssimulation auf jeden Fall vorzuziehen. Da die Wirkung der einzelnen Bestandteile noch nicht abschließend geklärt ist, Ringerlösung von ihrer Zusammensetzung jedoch dem Dentinliquor ähnlicher, ist sie dem Aqua dest. vorzuziehen. Die Versuche von SIEPE und die hier durchgeführten Versuche ließen keine Korrelation des Ausmaßes der Scherhaftfestigkeit zu der verwendeten Spüllösung erkennen. Es ist wichtig, diese Fragestellung durch weitere Untersuchungen zu lösen, um möglichst bald einen für weitere wissenschaftliche Studien einheitlichen Standard zu definieren und somit die Vergleichbarkeit erzielter Versuchergebnisse zu fördern.
Heparine werden seit Jahrzehnten als Medikamente zur Thromboseprophylaxe und Antikoagulation eingesetzt. Die heparin-induzierte Thrombozytopenie (HIT) stellt eine seltene, jedoch lebensbedrohliche Nebenwirkung einer Heparintherapie dar. Es werden zwei verschiedene Formen unterschieden. Die harmlose, nicht immunologische Form der HIT (HIT Typ I) und die seltene, oft lebensbedrohliche, immunologisch bedingte HIT Typ II. Sie ist gekennzeichnet durch eine Immunreaktion, die durch ein Neoantigen (Komplex aus dem von extern applizierten Heparin und dem autologen, aus den α-Granula der Thrombozyten freigesetzten Plättchenfaktor 4) eine Antikörperbildung induziert. Prädisponierte Patienten bilden Antikörper gegen den Heparin-PF4-Komplex, vornehmlich der Klasse IgG. Es entstehen makromolekulare Immunkomplexe, die über ihr Fc-Fragment durch Antikörperadsorption eine Aktivierung der Thrombozyten und Endothelzellen über den FcγIIa-Rezeptor bewirken und im Verlauf zu einer Thrombozytenaggregation mit gleichzeitigem Auftreten von Thrombozytopenien in Verbindung mit Thrombosen führen können. Das eigentlich zur Antikoagulation eingesetzte Heparin wirkt daher paradoxerweise bei der HIT-Typ II prokoagulatorisch. Es kommt zu Thrombozytopenien, die klassischerweise fünf bis 14 Tage nach Beginn einer Heparintherapie auftreten. Die Thrombozytopenien können begleitet sein von thromboembolischen Ereignissen, die eine hohe Rate an Defektheilungen oder gar ein Versterben bedingen können. Die Inzidenz einer HIT Typ II wird kollektivabhängig und nach Art des eingesetzten Heparins in der Literatur mit 0,3 – 2,7 % angegeben. Zur Diagnostik bei Verdacht auf eine heparin-induzierte Thrombozytopenie werden verschiedene kommerziell erhältliche Testsysteme eingesetzt. Diese immunologischen und funktionellen Labortests weisen Antigen-Antikörper-Komplexe direkt oder indirekt nach. Daten bezüglich der Inzidenz einer heparin-induzierten Thrombozytopenie in einem gefäßchirurgischen Kollektiv waren zu Beginn unserer Studie in der Literatur nicht verfügbar. Wir untersuchten daher fünfzig konsekutive Patienten im Alter von durchschnittlich 64,5 Jahren, die sich im Zeitraum von September 1996 bis November 1997 einer gefäßchirurgischen Operation unterziehen mussten, und die im Rahmen dessen über einen Mindestzeitraum von fünf Tagen eine Heparinbehandlung aus medizinischer Indikation benötigten. Die Thrombozytenzahlen wurden bei den Patienten unter Heparintherapie täglich bestimmt. An definierten Zeitpunkten (Tag 3 – 5, Tag 6 – 8, Tag 9 – 11, Tag 12 – 18, Ende der Heparintherapie) wurden Blutproben gewonnen, um diese mit zwei ELISA-Testmethoden (PF4/H-EIA und GTI-EIA) und einem funktionellen Testverfahren, dem heparin-induzierten Plättchen Aktivierungs Test [HIPA]), auf heparin-induzierte Antikörper zu untersuchen. Zum Ende der Heparintherapie wurde zusätzlich auch eine differenzierte Analyse der Antikörpersubklassen (IgG, IgA und IgM) durchgeführt. Während des stationären Aufenthaltes wurden die Patienten täglich auf thromboembolische Ereignisse körperlich untersucht. Ferner wurden die Patienten zum Ende der Heparintherapie und bei suspektem klinischem Befund mit Hilfe der Farbduplexsonographie bezüglich des Auftretens tiefer Beinvenenthrombosen gescreent. Mit zunehmender Dauer der Heparintherapie stieg die Inzidenz der positiven Testergebisse für heparin-induzierte Antikörper kontinuierlich bis auf ein Maximum am Tag 9 – 11 der Heparintherapie an. 54% der Patienten wurden zum Ende der Heparintherapie in mindestens einem der Teste positiv getestet. Offensichtlich entwickeln viele gefäßchirurgische Patienten unter prolongierter Heparintherpie heparin-induzierte Antikörper ohne klinsche Symptome -im Sinne von Thombozytopenien oder/ und thromboembolischen Ereignissen- zu erleiden. Bei der Mehrheit der Patienten wurden IgA-Antikörper (14 %) und IgM-Antikörper (26 %) am Ende der Heparintherapie bei der Antikörpersubklassenanalyse nachgewiesen, bei gleichzeitig positivem HIPA-Ergebnis allerdings vorwiegend IgG-Antikörper (3/ 3 Patienten). Acht Prozent des untersuchten Kollektivs (4/ 50) fielen durch klinische Komplikationen auf (2 Thrombozytopenien, 3 Reverschlüsse). Bei keinem der Patienten wurde ein Zusammenhang mit der HIT-Antikörperentwicklung gesehen, so dass die klinische Relevanz der mit den unterschiedlichen Testsystemen sehr häufig nachgewiesenen HIT-Antikörper in dem untersuchten Kollektiv fraglich ist. Farbduplexsonographisch ließ sich bei keinem der untersuchten Patienten eine tiefe Beinvenenthrombose nachweisen. Ein großer Prozentsatz von gefäßchirurgischen Patienten entwickelt heparin-induzierte Antikörper, ohne klinische Symptome einer HIT Typ II zu zeigen. Keines der angewandten Testverfahren auf heparin-induzierte Antikörper ist daher prädiktiv in Bezug auf eine klinische Manifestation bei asymptomatischen Patienten. Die diagnostische Spezifität sowohl der immunologischen Antigen-, als auch des funktionellen Aktivierungstests scheint daher bei gefäßchirurgischen Patienten gering zu sein. Die Ergebnisse dieser Doktorarbeit konnten bereits im Jahr 2000 in dem internationalen Journal ´Thrombosis Research´ publiziert werden (2000 Thromb Res 97: 387 – 393). Ebenso wurden Auszüge der vorliegenden Arbeit bereits 1997 als Abstract in Thromb Haemost 77 (Suppl. 1): 562 vorgestellt. Ferner wurden die Ergebnisse als Abstract auf dem ´42. Annual Meeting´ der Gesellschaft Thrombose und Hämostasforschung/ GTH im Februar 1998 (1998 Ann Hematol 77 (Suppl. 1): 58 vorgestellt.
Von Oktober 1990 bis Juli 2000 wurden 66 Patienten mit 83 Keloiden in der Strahlenklinik der Universitätsklinik Frankfurt am Main mit Strontium-90-Kontakttherapie in der frühen postoperativen Phase innerhalb von vier bis fünf Tagen in vier Fraktionen zu je 5 Gy bis zu einer Gesamtdosis von 20 Gy bestrahlt. 41 Patienten mit 53 Keloiden füllten einen Fragebogen aus und konnten nachbeobachtet werden. Davon kamen 24 Patienten mit 31 Keloiden zu einer Nachuntersuchung. Bei der Evaluation der Ergebnisse sollten folgende Hypothesen geprüft werden: Die Bewertung der Therapie durch den Arzt kann von der Bewertung durch den Patienten erheblich differieren. Die Zufriedenheit der Patienten ist nicht ausschließlich vom rezidivfreien Heilungsverlauf abhängig, sondern auch von den Symptomen sowie von Art und Grad der Nebenwirkung. Dazu wurden die Therapieergebnisse objektiv erhoben und mit der subjektiven Patientenbeurteilung verglichen. Quintessenz sind prognostische Faktoren zur Rezidivrate und zur Patientenzufriedenheit sowie Vorschläge für das Erstgespräch mit dem Patienten und die Examination von Keloid und Rezidiv´. Die Symptome der Keloide (kosmetische Beeinträchtigungen und körperliche Beschwerden) sowie die Häufigkeit, Größe, Art und Ausprägung der Therapieergebnisse (Rezidive, rezidivfreie Narben, Nebenwirkungen, Beschwerden) wurden mittels Fragebogen und Nachuntersuchung erhoben. Die Rezidive wurden in Prozent der Fläche der Gesamtnarbe geschätzt. Ein Vollrezidiv wird als größer 80%, ein Teilrezidiv mit 30 bis 80% und ein Randrezidiv als kleiner 30% definiert. Nebenwirkungen (Hyperpigmentierung, Hypopigmentierung, Teleangiektasien, Rötung bzw. Randsaum, Atrophie) wurden entsprechend ihrer Ausprägung (keine, geringe, mäßige, starke) bzw. nach Vorhandensein aufgenommen. 19 Rezidive (36%) traten bei den nachbeobachteten Patienten auf. Davon waren sieben Vollrezidive (13%) und 12 Teil- und Randrezidive (23%). 83% der Patienten hatten nach der Therapie keine oder weniger Beschwerden. Die Rezidivrate läge ohne die Erhebungen im Rahmen dieser Studie anstatt bei 39% bei nur 13%, da nur sieben Rezidive aktenkundig waren. Demnach ist eine Nachbeobachtungszeit von ein bis zwei Jahren zwingend, um eine Vergleichbarkeit von Studien zu gewährleisten. Von den 24 Patienten mit 31 Keloiden, die zur Nachuntersuchung kamen, traten mäßige bis starke Nebenwirkungen in 16% als Hyperpigmentierung, in 35% als Hypopigmentierung, in 39% als Teleangiektasien und in 25% als Rötung auf. Randsäume traten in 42% und Atrophien in 23% der Fälle auf. Das Hauptkriterium einer erfolgreichen Therapie ist laut Schrifttum die Rezidivfreiheit. Definitionen von erfolgreicher rezidivfreier Therapie differieren, weshalb Erfolgsraten´ nicht vergleichbar sind. Die objektive Bewertung der Therapieergebnisse durch den Arzt berücksichtigt die subjektiven Kriterien (körperliche Beschwerden und kosmetische Beeinträchtigung des Patienten) nicht ausreichend. Anhand unserer Ergebnisse wurden signifikante prognostische Faktoren bzgl. der Rezidivrate herausgearbeitet und mit dem Schrifttum verglichen bzw. diskutiert. Prognostisch ungünstige Faktoren für eine Rezidiventwicklung sind familiäre Keloidbelastung, Keloidgrößen von über 2 cm, bereits vorbehandelte Keloide, die Lokalisationen Rumpf bzw. vorderer Thorax, Infektionen und Fremdkörper in der Operationswunde, die Entstehungsursache Verbrennung sowie Behandlung von jungen, noch aktiven Keloiden. Die subjektive Bewertung der Behandlungsergebnisse durch den Patienten hängt von den Symptomen, Art des Rezidivs sowie Art und Ausprägung der Nebenwirkungen ab. Nach unseren Untersuchungen ist mit einer signifikant höheren Patientenzufriedenheit mit der Therapie zu rechnen, wenn die Patienten Ohr- oder Rumpf-Keloide haben, vorher körperliche Beschwerden hatten, die sich verbessert haben oder wenn die Patienten männlich sind. Tendenziell höher ist die Zufriedenheit bei Patienten, die sich vor der Therapie nicht durch das Keloid entstellt fühlten, bei der Entwicklung von Teil- und Randrezidiven anstatt Vollrezidiven und bei geringer Ausprägung der Nebenwirkungen. Von den 41 nachbeobachteten Patienten waren 61% mit der Therapie und 51% mit dem kosmetischen Ergebnis der Therapie sehr bis mäßig zufrieden. Subjektive und objektive Beurteilung der Therapieergebnisse entsprechen einander nicht, da die unzufriedenen Patienten nicht mit den Patienten, die ein Rezidiv haben, identisch sind, obwohl dies aufgrund ähnlicher prozentualer Anteile (unzufriedene Patienten: 39%, Rezidivrate: 36%) zu vermuten wäre. Zwischenzeitlich wurde das Therapieschema an der Strahlenklinik der Uniklinik Frankfurt auf vier Fraktionen zu je 4 Gy bei einer Gesamtdosis von 16 Gy geändert. Teilweise werden jetzt zusätzlich Beschleunigerelektronen als Strahlenquelle in der Keloidtherapie genutzt. Interessant wäre zukünftig eine vergleichende Studie zur Rezidivhäufigkeit, dem Auftreten von Nebenwirkungen und der Zufriedenheit der Patienten. Die vielschichtige Keloidproblematik erfordert einen multidisziplinären Therapieansatz, um objektiv und subjektiv gute Ergebnisse zu erzielen. Die Vorschläge für das Erstgespräch...´ sind auf andere Therapien, z. B. dermatologische Erkrankungen, übertragbar.
Tumorerkrankungen, insbesondere solche im metastasierenden Stadium, erfordern effiziente Therapien. Krebstherapien wie Bestrahlung oder Chemotherapie wirken über die Induktion von Apoptose. Resistenz gegen diese Behandlungsansätze geht einher mit der Blockierung relevanter apoptotischer Signalwege. Dennoch haben Tumorzellen nicht grundsätzlich die Fähigkeit verloren, apoptotischen Zelltod zu sterben, d. h. mit einem geeigneten Stimulus kann in jeder Tumorzelle Apoptose induziert werden. In dieser Arbeit wurden Proteine entwickelt, die Enzyme apoptotischer Signalkaskaden selektiv in Tumorzellen einschleusen. Um Spezifität für transformierte Zellen zu erlangen, wurden diese Proteine mit Zellbindungsdomänen gekoppelt, die an tumorassoziierte Antigene binden. Als Zielstrukturen auf der Oberfläche von Krebszellen dienten die Rezeptoren der ErbB Familie „epidermal growth factor receptor“ (EGFR) und ErbB2. Überexpression dieser Rezeptoren wird auf einer Vielzahl von Tumoren epithelialen Ursprungs beobachtet und ist ursächlich beteiligt an der malignen Transformation. Als Apoptoseinduktoren wurden die Serinprotease Granzym B (GrB) sowie das Protein „apoptosis inducing factor“ (AIF) eingesetzt. GrB induziert Apoptose durch direkte Aktivierung von Caspasen und Spaltung zentraler Caspasen-Substrate. Damit greift die Protease am unteren Effektorende apoptotischer Signalwege ein und umgeht so die meisten Resistenzmechanismen transformierter Zellen. Um GrB in Tumorzellen einzuschleusen, wurde die Protease mit dem ErbB2 spezifischen Antikörperfragment scFv(FRP5) gekoppelt. Zunächst wurde eine biotinylierte Variante der Protease (bGrB) über die hochaffine Streptavidin/ Biotin Interaktion mit einem Fusionsprotein komplexiert, das aus dem scFv(FRP5) und Streptavidin besteht (SA-5). Komplexe aus enzymatisch aktivem bGrB und SA-5 wiesen selektive cytotoxische Aktivität gegenüber ErbB2 exprimierenden Zellen auf, die allerdings von der Präsenz des endosomolytischen Reagenz Chloroquin abhing. Dies zeigt die Notwendigkeit einer Translokation vom endosomalen Kompartiment, um internalisiertem GrB Zugang zu seinen cytosolischen Substraten zu ermöglichen. Aufbauend auf diesen Ergebnissen, die grundsätzlich nachweisen, daß das Einbringen von GrB in Tumorzellen ausreichend ist, um in diesen Zellen Apoptose zu induzieren, wurden Fusionsproteine abgeleitet, in denen GrB direkt mit Zellbindungsdomänen fusioniert ist. Neben dem scFv(FRP5) wurde auch der EGFR-Ligand TGFalpha eingesetzt. Fusionsproteine bestehend aus reifem GrB und scFv(FRP5) (GrB-5) bzw. TGFalpha (GrB-T) wurden in der Hefe Pichia pastoris exprimiert und mit hohen Ausbeuten gereinigt. GrB-5 und GrB-T zeigten enzymatische Aktivität und wiesen Affinität zu ErbB2 bzw. EGFR auf. In Gegenwart von Chloroquin zeigten GrB-5 und GrB-T selektive cytotoxische Aktivität gegenüber Zellen, die den jeweiligen Zielrezeptor exprimieren. Die IC50 Werte der Proteine lagen im pico- bis nanomolaren Bereich und sind damit vergleichbar mit denen rekombinanter Immun- bzw. Wachstumsfaktortoxine, die Exotoxin A (ETA) aus Pseudomonas aeruginosa als Effektor nutzen. Induktion von Apoptose erfolgte durch GrB-5 und GrB-T allerdings deutlich schneller (3 h) als durch ETA Fusionsproteine (72 h), da GrB im Gegensatz zu ETA direkt in apoptotische Signalkaskaden eingreift. Um die weitere Charakterisierung von GrB-5 und GrB-T zu erleichtern, wurden in der vorliegenden Arbeit Möglichkeiten für eine Optimierung der Expression dieser Fusionsproteine in Hefe untersucht. Dazu wurde eine Strategie entwickelt, die auf der Beobachtung beruht, daß die Löslichkeit und Stabilität von Proteinen durch Fusion mit solchen Domänen erhöht werden kann, die selbst eine hohe Löslichkeit und Stabilität besitzen. Ein Protein mit diesen Eigenschaften ist das Maltose Bindungsprotein (MBP) aus E. coli. In dieser Arbeit wurde MBP bei der Expression rekombinanter Proteine in P. pastoris eingesetzt, um die Ausbeute löslicher Proteine zu steigern. Es wurde eine Strategie entwickelt, die es erlaubt, MBP posttranslational in vivo vom Fusionspartner zu trennen. Hierzu wurde eine Erkennungssequenz der Protease Furin (furS) zwischen MBP und Fusionspartner eingefügt. Zunächst wurde untersucht, ob GrB als MBP Fusionsprotein in enzymatisch aktiver Form exprimiert werden kann, was eine Grundvoraussetzung für die Expression tumorspezifischer GrB Fusionsproteine in diesem System darstellt. Die Ausbeute von GrB konnte durch diese Strategie erheblich gesteigert werden. Daneben war eine vollständige Prozessierung der Fusionsproteine innerhalb der Furin-Erkennungssequenz nachweisbar. Als MBP Fusionsprotein exprimiertes GrB wies allerdings keine enzymatische Aktivität auf. Weitere Untersuchungen zeigten, daß das terminale Serin der furS-Sequenz, das nach Spaltung durch Furin am N-Terminus von GrB zurückbleibt, die enzymatische Aktivität der Serinprotease inhibiert. Im Rahmen dieser Arbeit wurde daher nicht weiter versucht, die Ausbeute an tumorspezifischen GrB Fusionsproteinen durch Fusion mit löslichen Proteindomänen zu erhöhen. Für Proteine, die ein N-terminales Serin tolerieren, stellt das hier entwickelte System allerdings eine neuartige Strategie dar, um die Ausbeute in P. pastoris um ein Vielfaches zu steigern. Dies wurde anhand von rekombinantem ErbB2 als Modellprotein bestätigt. Als alternativer Effektor in tumorspezifischen Fusionsproteinen wurde AIF als caspasenunabhängig agierendes proapoptotisches Signalmolekül eingesetzt. In apoptotischen Zellen bewirkt die Freisetzung von AIF aus dem mitochondrialen Intermembranraum die nachfolgende Translokation des Proteins in den Zellkern, woraufhin DNA-Fragmentierung induziert wird. Zum Einschleusen von AIF in Tumorzellen wurde das Flavoprotein mit dem scFv(FRP5) fusioniert (5-AIF). Um eine cytosolische Translokation von AIF zu erreichen, wurde ein Konstrukt abgeleitet, das zusätzlich die Translokationsdomäne von Exotoxin A enthält (5-E-AIF). Diese Domäne ist beim Wildtyp-Toxin notwendig für dessen retrograden Transport vom Endosom über den Golgi Apparat und das ER in das Cytosol. Innerhalb der Translokationsdomäne findet zudem eine Prozessierung durch die endosomale Protease Furin statt. AIF Fusionsproteine wurden in E. coli exprimiert, gereinigt und renaturiert. Die Proteine wiesen Affinität für ErbB2 auf und interagierten mit DNA, eine Eigenschaft, die essentiell für die proapoptotische Aktivität von AIF ist. 5-E-AIF zeigte gegenüber ErbB2 exprimierenden Zellen cytotoxische Aktivität, die vergleichbar mit der des Immuntoxins scFv(FRP5)-ETA war. Diese Aktivität war allerdings nur in Gegenwart von Chloroquin gegeben. Das Protein 5-AIF, in dem die Translokationsdomäne fehlt, zeigte auch in Kombination mit Chloroquin keine Cytotoxizität. Eine mögliche Folgerung hieraus ist, daß die N-terminale Antikörperdomäne der Fusionsproteine die proapoptotische Aktivität der AIF Domäne blockiert. 5-E-A wird sehr wahrscheinlich durch die endosomale Protease Furin „aktiviert“, die den scFv(FRP5) durch proteolytische Spaltung innerhalb der ETA-Domäne entfernt haben könnte. Für die eigentliche Translokation reicht der ETA-Anteil allerdings nicht aus, wahrscheinlich, weil in dem hier abgeleiteten Konstrukt ein für die Funktionsweise des Wildtyp-Toxins essentielles ER Retentionssignal fehlte. Die Ergebnisse dieser Arbeit zeigen, daß durch Einsatz apoptotischer Signalmoleküle in tumorzellspezifischen Fusionsproteinen hohe und selektive cytotoxische Aktivitäten erzielt werden können. Eine weitere Entwicklung dieser Proteine als mögliche Tumortherapeutika erscheint daher sinnvoll.
Im Aufsatz wird die Rekonstruktion einer kurzen Sequenz der pädagogischen Interaktion aus dem Unterricht einer großstädtischen Grundschule und in Ergänzung dazu die Rekonstruktion der Sequenz einer Lehrer-Eltern-Interaktion am Rande des gleichen Unterrichts vorgestellt. Diese mit dem Verfahren der Sequenzanalyse der Objektiven Hermeneutik durchgeführten Rekonstruktionen stehen im Kontext der Entwicklung eines theoretischen Modells der Struktur des pädagogischen Handelns. Die Entwicklung eines solchen Modells setzt die Bestimmung der Strukturprobleme dieses Handelns, so wie es derzeit in deutschen Schulen vorzufinden ist, voraus. Die Rekonstruktionen sollen zugleich der Überprüfung der von Ulrich Oevermann im Rahmen seiner Professionalisierungstheorie entwickelten These dienen, dass es sich beim pädagogischen Handeln um den eigentümlichen Fall einer Profession handelt, die bislang nicht professionalisiert ist, obwohl sie angesichts der Struktur der grundlegenden Handlungsprobleme, die in diesem Berufshandeln zu bewältigen sind, als professionalisierungsbedürftig gelten kann.
Das Hormon Erythropoetin (EPO) ist ein hitzestabiles Glykoprotein, welches als wesentlicher Wachstumsfaktor an der Erythropoese beteiligt ist. EPO wird sauerstoffabhängig in Leber und Niere synthetisiert. Da EPO in Zellen nicht gespeichert wird, ist seine Sekretionsrate durch die Syntheserate bestimmt. Unter Hypoxie wird über einen hypoxieinduzierbaren Faktor (HIF-1) die Transkription des EPO-Gens angeregt. Mycophenolat Mofetil (MMF) wird erfolgreich bei transplantierten Patienten als Immunsuppressivum eingesetzt. MMF ist ein nichtkompetitiver, reversibler Hemmer der Inosinmonophosphatdehydrogenase (IMPDH), die essentiell für die de novo Purinsynthese in Lymphozyten ist. MMF soll selektiv antiproliferativ auf Lymphozyten wirken, ohne einen unspezifischen knochenmarkdepressiven Effekt zu haben. Trotzdem wurden bei bis zu 15% der nierentransplantierten und nahezu der Hälfte aller herztransplantierten Patienten unter immunsuppressiver Therapie mit MMF Anämien beschrieben. Die Genese dieser Anämien ist noch unklar und könnte durch eine reduzierte EPO-Produktion unter MMF bedingt sein. In dieser Untersuchung wird deshalb der Effekt von MMF auf die EPO-Freisetzung aus HepG2-Zellen in vitro analysiert. HepG2 und Hep3B Zellen sind ein etabliertes Zellkulturmodell zur Untersuchung der Regulierung hypoxieabhängiger EPO-Sekretion. MMF vermindert zeit- und konzentrationsabhängig die mittels ELISA gemessene EPO-Konzentration im Zellüberstand von HepG2-Zellen – im Mittel etwa auf die Hälfte des Ausgangswertes (p < 0, 001). Dieser Effekt ist signifikant ab einer Konzentration von 0,1 µM MMF und maximal bei 5 µM MMF. Eine signifikante Inhibition der EPO-Sekretion war erst nach 48stündiger Inkubation mit MMF nachweisbar. Unspezifische Effekte auf Proliferation und Proteinsynthese sowie zytotoxische Effekte wurden mittels verschiedener unabhängiger Methoden weitgehend ausgeschlossen. Der Effekt von MMF auf die EPO-Sekretion konnte durch Zugabe von Guanosin aufgehoben werden, was für eine kausale Rolle der IMPDH in diesem Zusammenhang spricht. Analog zu der sezernierten EPO-Menge verminderte sich auch die Menge der gebildeten EPO-mRNA unter MMF. Zudem ist die Aktivität von HIF-1 unter MMF gemindert. Im Gegensatz zu MMF zeigen andere Immunsuppressiva wie der Purinsynthesehemmer Azathioprin und die Calcineurininhibitoren Cyclosporin A und Tacrolimus keinen spezifischen Effekt auf die EPO-Freisetzung von HepG2-Zellen. Die Ergebnisse weisen darauf hin, daß die Minderung der EPO-Sekretion im Zellkulturmodell ein Erklärungsansatz für die beobachteten Anämien unter MMF sein könnte. Eine Therapie der Anämie mittels EPO-Substitution erscheint daher sinnvoll.
Der vorliegende Bericht beschreibt die Situation in der „offenen Drogenszene“ in Frankfurt am Main unter zwei Aspekten: zum einen im Hinblick auf die Veränderungen, die sich in zentralen Inhaltsbereichen wie der sozialen und gesundheitlichen Situation, dem Substanzkonsum und der Inanspruchnahme des Hilfesystems in den letzten Jahren gezeigt haben, zum zweiten im Hinblick auf die aktuelle Situation, wie sie sich in der „offenen Drogenszene“ Mitte des Jahres 2004 auf Grundlage der hier vorliegenden Daten darstellt.
Die Heilige Schrift der Gemeinde der Sikh ist Adi Sri Guru Grantha Sahibaji oder „der am Anfang stehende Guru in Gestalt des Buches". Guru Govind Singh (1675-1708) setzte kurz vor seinem Tod eine erweiterte Fassung des Adi Grantha als seinen Nachfolger im Guruamt ein. Der Adi Grantha ist ein poetisches Werk, das keinerlei Prosa enthält. Autoren der verschiedenen Teile der Schrift gehörten nur zum Teil der Sikh-Gemeinde an: Guru Nanak, der Gründer der Religion der Sikh, sowie seine Nachfolger Angad, Amar Das, Ram Das, Arun, Teg Bahadur und Govind Singh. Aus anderen Religionen stammen die sogenannten Bhagats (Fromme) wie der islamische Sufi Kabir, ein Weber von Beruf, oder der hochberühmte Krishnadichter Sur Das. Schließlich zählen noch einige Bhatts oder Barden wie Haribans oder Ganga zu den Mitverfassern. Zu dieser multireligösen Verfasserschaft tritt als weitere Besonderheit dieser Heiligen Schrift ihre Vielsprachigkeit. Der Urtext des Adi Grantha ist in seinen verschiedenen Teilen in unterschiedlichen Sprachen und Dialekten abgefaßt (Hindi Sanskrit, Marathi, Persisch, Arabisch usw.). Zwar waren Guru Nanak und seine Nachfolger Panjabi; dennoch sprachen sie ein Idiom, das nach E. Trumpp eine Mischung aus Hindi und Panjabi war. Guru Govind Singh jedoch schrieb in reinem Hindi. Das Alphabet des Adi Grantha ist das Gurmukhi, eine Schrift, die Guru Nanak für die Abfassung seines Schriftteils entwickelt haben soll. Der Adi Grantha setzt sich aus liturgischen Gebrauchstexten, aus Psalmen und Preisgesängen zusammen.
Im Kopftuchstreit wird von konservativer Seite als Argument ins Feld geführt, daß christliche Symbole Vorrang vor denen anderer Religionen haben sollen, weil sich unsere Gesellschaftskultur weltanschaulich vom Christentum herleite. Immerhin wird damit zwar politisch, wenn auch auf negative Weise, anerkannt, daß wir eine multireligiöse Gesellschaft seien, aber dennoch soll die Mehrheitsreligion besondere Privilegien genießen. In vielen Staaten, in denen die Muslime die Mehrheit der Bevölkerung ausmachen, wird übrigens ähnlich gedacht und auch verfahren. Warum tut sich aber unser Staatswesen, das sich doch als Vorreiter der Menschenrechte versteht, immer noch so schwer, alle gesetzestreuen Religionen völlig gleich zu behandeln und allen gesetzestreuen Bürgern das gleiche Recht auf Gestaltung einer individuellen Religionskultur zuzugestehen? Ein Rückgriff auf die christliche Religionsgeschichte soll helfen, dies besser zu verstehen.
In der reformatorischen Tradition steht die zweckfreie Liebe zum Nächsten im Zentrum. Sie hat ihren Grund darin, dass Gott sich den Menschen barmherzig zugewandt und ihr gestörtes Verhältnis zu ihm in Ordnung gebracht hat, was sie von sich aus nicht vermochten. Leben und Sterben Jesu Christi sind der Ausdruck der Barmherzigkeit Gottes. Zweckfreie Liebe zum Mitmenschen. Weil Christen das Himmelreich nach dem Willen Gottes bereits erlangt haben und ihr Verhältnis zu ihm nicht aus eigener Kraft in Ordnung zu bringen vermögen, können sie durch Hilfe für ihre Mitmenschen nichts zu ihrem Heil beitragen. Sie setzten sich für andere ein, weil der barmherzige Gott sie reich beschenkt hat. Darüber hinaus ist weder ein bestimmtes religiöses Bewusstseins, noch rituelle Reinheit, noch der Zugehörigkeit zu einer bestimmten Gruppe, noch eine Missionsabsicht von Nöten.
In meinem Beitrag nehme ich Fragen nach Wissenskonzepten auf, die sich mit neuen Wissensformen und mit der Herstellung von Wissen in außerwissenschaftlichen Kontexten beschäftigen. Ich betrachte Wissen von IT-Professionals als einen Typ von Wissen, der nicht ausschließlich technisch ist, sondern auch andere Wissenssorten enthält. IT-Professionals gelten als als Wissensarbeiter („knowledge workers“) [Schultze 1999, 7] und Professionskulturen („occupational cultures“) mit technowissenschaftlichem Expertenwissen und geteilten Perspektiven von Spezialisten. Der Begriff des Wissensarbeiters wurde verstärkt in postindustriellen Theorien aufgenommen. Diese Theorien prognostizierten die zunehmende Bedeutung menschlicher Intelligenz in den Arbeitsprozessen der entstehenden Wissensökonomie [Bell 1973; Castells 1998] sowie die Herausbildung neuer Beschäftigung für autonome, gebildete Wissensarbeiter [Castells 2000, 257; Drucker 2001; Stehr/Ericson 1992, 5f.]. Techniker bzw. Ingenieure, die eine neue Technologie entwickeln, sowie alle, die an Design, Entwicklung und Verbreitung dieser neuen Technologie beteiligt sind, werden außerdem als Akteure beschrieben, die sich ins Feld soziologischer Analyse bewegen. Sie tun das insofern, als sie auch die Modelle von Gesellschaft oder Welt entwerfen, in der ihre technischen Entwicklungen eingesetzt werden sollen [Callon 1987, 84]. ...
Das Herz des Menschen wurde in der Geschichte lange Zeit als zentrales Organ des Körpers angesehen. Noch heute nimmt es vom emotionalen Aspekt gesehen, eine bedeutende Stellung ein. Herzerkrankungen im Kindesalter werden daher von Patienten und Angehörigen als ernsthafte Bedrohung erlebt. Acht von tausend Kindern werden mit einem Herzfehler geboren, fast 3700 Herzoperationen wurden im Jahr 2004 in der Bundesrepublik Deutschland an Kindern und Jugendlichen bis 17 Jahren durchgeführt. Aufgrund verbesserter Diagnose- und Operationsmöglichkeiten erleben heute über 90% der Kinder mit Herzfehler das Erwachsenenalter. Dieser Verbesserung der Lebensqualität und –dauer folgte eine zunehmende wissenschaftliche Betrachtung der Probleme nach Korrektur eines Herzfehlers. Neben den direkten Folgen der Erkrankung und der Operation, wurden auch die langfristigen Folgen eines operativen Eingriffes für die autonome Regulationsfähigkeit des Herzens untersucht. Ein bedeutendes Hilfsmittel hierfür stellt die Analyse, der durch das vegetative Nervensystem beeinflussten Herzfrequenzvariabilität (HRV) dar. Ein operativer Eingriff am Herzen zerstört autonome Nervenfasern und schränkt die Einflüsse des parasympathischen und sympathischen Anteiles des vegetativen Nervensystems auf das Herz ein. Die Messungen der HRV werden heute auch im Sport zur Trainingssteuerung eingesetzt. Mit ihr lassen sich Belastungseffekte, sowie regenerative Aspekte messen. In zwei Studien wurden Veränderungen der Anpassungsfähigkeit nach operierten Herzfehlern einerseits und Reaktionen des Herzens auf sportliche Belastung und Regeneration andererseits, im Rahmen dieser Dissertation analysiert. Im ersten Teil der Arbeit wurden, im Sinne einer Querschnittstudie, die Veränderungen der HRV bei Kindern und Jugendlichen im Alter zwischen 8 Monaten und 18 Jahren nach operativer Korrektur einer Transposition der großen Arterien (TGA, n = 11), eines Vorhofseptumdefektes (ASD, 13), eines Ventrikelseptumdefektes (VSD, 17), einer Fallot'schen Tetralogie (TOF, 13), eines kompletten Atrioventrikularkanales (CAVC, 5) und nach abgeschlossener Fontan-Zirkulation (totale cavopulmonale Connection, TCPC, 11) untersucht. Die Ergebnisse wurden mit denen einer geschlechts- und altersangepassten Kontrollgruppe (16) verglichen. Die Kurzzeit-HRVRegistrierungen erfolgten im Schlaf mittels Lifecard CF compact Flashcard Holter (Fa. Reynolds). Ein Schwerpunkt bei dieser Untersuchung stellte die Differenzierung zwischen Veränderungen der parasympathischen und der sympathischen Aktivität, mit Hilfe der Spektralanalyse, bei unterschiedlichen Herzfehlern dar. Hierzu wurden die Zeitbereichsparameter „mittlerer Abstand zweier R-Zacken“ (mRR), Standardabweichung (SD) und die „Quadratwurzel des quadrierten Mittelwertes der Summe aller Differenzen zwischen aufeinander folgenden RR-Intervallen“ (rMSSD), sowie die Frequenzbereichsparameter low-frequency (LF) als teilweises Pendant zur sympathischen Aktivität, high-frequency (HF) als Korrelat des parasympathischen Anteiles und total power (TP), ermittelt. Aus letzteren wurden die Quotienten der sympathovagalen Balance (LF/HF) und die normierten Frequenzbereiche (HF/TP und LF/TP) errechnet. Es konnte gezeigt werden, dass die SD (als Parameter der globalen Herzfrequenzvariabilität) bei großer interindividueller Streubreite in allen Patientengruppen gegenüber der Kontrollgruppe reduziert war. Die stärkste Reduktion im Median fand sich dabei in den Gruppen TGA und TCPC, für letztere war auch die größte Streubreite charakteristisch. In allen Patientengruppen, bis auf TGA, fand sich in der LF/HF eine Verschiebung zur sympathischen Aktivität. In einer zweiten Studie wurde bei 20 Patienten der jährlich stattfindenden Skifreizeiten für herzkranke Kinder und Jugendliche (Pädiatrische Kardiologie des Universitätsklinikums Frankfurt und Kinderherzstiftung in Herzstiftung e.V.) ein Orthostasetest zur Evaluierung der Reaktion auf Kreislaufbelastung, im Sinne einer Längsschnittstudie, zu Beginn und am Ende der einwöchigen Freizeit durchgeführt. Im Zusammenhang mit dem Ergebnis einer in der vorhergehenden Nacht, ohne störende Umwelteinflüsse, aufgezeichneten Messung, kann die adaptive Leistung des Herzens auf Kreislaufstress und die Veränderungen aufgrund sportlich-regenerativer Einflüsse während der Skiwoche bestimmt werden. Die Messungen erfolgten analog der in Studie I durchgeführten Methodik. Bei ca. 70% der Kinder zeigte sich eine Verstärkung der nächtlichen TP und eine Zunahme der HF im entsprechenden Teil des Orthostasetests. Bei 10% war es zu einer Abnahme dieser Parameter gekommen, 20% der Kinder zeigten uneinheitliche Resultate der zwei Messungen. Eine knappe Mehrheit der Kinder zeigte einen Anstieg der LF unter Orthostase. Die Ergebnisse der ersten Studie haben gezeigt, dass die Kurzzeitmessung der Herzfrequenzvariabilität in der Lage ist, Veränderungen der autonomen Regulation bei Kindern und Jugendlichen nach Herzoperation darzustellen. Dabei konnte gezeigt werden, dass Eingriffe mit Eröffnung des Vorhof- oder Kammermyokards hauptsächliche eine Reduktion der parasympathischen Aktivität, Switch-Operationen nach TGA mit Durchtrennung der großen Gefäße und Vorhoferöffnung hingegen eine gleichmäßige Reduktion beider Anteile des vegetativen Nervensystems hervorrufen. Die vorwiegende Reduktion parasympathischer Anteile der Herzfrequenzvariabilität bei verschiedenen Herzfehlern, wird in mehreren Studien beschrieben. Häufig beziehen sich diese jedoch nur auf wenige Herzfehler und ein direkter Vergleich der verschiedenen Ergebnisse dieser Studien ist durch unterschiedliche methodische Ansätze nur eingeschränkt möglich. Der Effekt einer gleichmäßigen Reduktion der Herzfrequenzvariabilität bei Patienten mit TGA wurde bisher nicht erwähnt. In der zweiten Studie konnte gezeigt werden, dass sich Veränderungen der Herzfrequenzvariabilität herzkranker Kinder und Jugendlicher während einer einwöchigen Skifreizeit darstellen lassen. Die Mehrzahl der Kinder und Jugendlichen verbesserten ihre Fähigkeit zur Bewältigung von Kreislaufstress, indem sie nach dem Übergang vom Stehen zu liegender Position eine höhere vagale Aktivität aufbauen konnten. Dieses Ergebnis wurde durch eine deutlich verstärkte nächtliche Gesamtvariabilität bestätigt. Veränderungen, die in Übereinstimmung mit der Literatur eine Verbesserung des kardialen Risikos erwarten lassen. Es ist anzunehmen, dass die Ursache für diese Verbesserung in einem multifaktoriellen Geschehen aus körperlicher Aktivität, klimatischen Einflüssen, sowie einem veränderten sozialen Umfeld zu sehen ist. Drei der Kinder zeigten reduzierte Werte am Ende der Woche, welche auf eine verstärkte Stressbelastung schließen lassen. Die Wertigkeit des kontrovers diskutierten Parameters LF bleibt auch in dieser Studie unklar, obgleich ein Trend zu einer schnelleren Adaptation des Kreislaufs beim Übergang vom Liegen zum Stehen ermittelt werden konnte. Insgesamt bestätigen die Ergebnisse der Studie II die Richtigkeit der Durchführung auch provokanter Sportarten mit herzkranken Kindern unter adäquater kardiologischsportmedizinischer Betreuung.
Im Rahmen der vorliegenden Untersuchung sollte ermittelt werden, ob Zahnpasten und Mundspüllösungen abrasive und/oder korrosive Effekte auf Bestandteile festsitzender kieferorthopädischer Apparaturen (Bänder und Brackets) ausüben, und ob diese Effekte – wenn vorhanden – eine klinische Relevanz aufweisen. Insbesondere ging es dabei um die Fragestellung, ob durch die Anwendung der getesteten Mundhygieneprodukte die Oberflächenbeschaffenheit der genannten Bestandteile einer festsitzenden kieferorthopädischen Apparatur im Sinne einer Aufrauung verändert werden würde. Zu diesem Zweck wurden 4 unterschiedliche Zahnpasten und 2 Mundspüllösungen in 2 Versuchsreihen getestet: Im ersten Versuch wurden Molarenbänder für 35 Tage in Testlösungen eingelegt und anschließend auf Veränderungen der Oberflächenbeschaffenheit untersucht. Dies erfolgte per Rasterelektronenmikroskop und Rauigkeitsmessung. Etwaige Substanzverluste sollten mit Hilfe von Gewichtsbestimmung und chemischer Analyse (TXRF-Analyse) der Testlösungen nachgewiesen werden. Im zweiten Versuch wurden Molarenbänder und Brackets in eine Putzmaschine eingespannt und für einen Zeitraum, der einer Behandlungsdauer von 3 Jahren entsprach, die tägliche Reinigung mit Zahnbürste und Zahnpasta-Wassergemisch simuliert. Mundspüllösungen kamen hierbei nicht zum Einsatz. Die Prüfkörper wurden anschließend rasterelektronenmikroskopisch untersucht und einer Rauigkeitsmessung unterzogen. Insgesamt konnte in den durchgeführten Versuchen kein negativer Einfluss der getesteten Mundhygienemittel auf kieferorthopädische Bänder bzw. Brackets im Sinne einer Aufrauung der Materialoberflächen durch korrosive oder abrasive Prozesse festgestellt werden. Die rasterelektronenmikroskopischen Aufnahmen zeigten dahingehend keinerlei sichtbare Veränderungen. Bei den Rauigkeitsmessungen war dagegen sogar ein eher positiver Einfluss – zumindest durch Zahnpastaeinwirkung – zu verzeichnen: Im Putzversuch war bei allen Bändern, bei denen Zahnpasten zum Einsatz kamen, eine Verringerung des Mittenrauwerts Ra zu erkennen, die in einer gewissen Korrelation mit dem RDA-Wert stand. Eine Erhöhung von Ra war nur bei Probe 5 (Zahnbürste ohne Zahnpasta) festzustellen. Dies spricht für einen Politureffekt der Zahnpasten, was im Sinne der Fragestellung als positiv zu bewerten ist (verminderte Plaqueanlagerung, geringere Friktion). Ein ähnlicher Effekt dürfte aufgrund der vergleichbaren Werkstoffeigenschaften auch bei metallischen Brackets zu erwarten sein. Die Oberflächenrauigkeit im Slotbereich und damit die Friktion müssten daher durch die Einwirkung von Zahnpasten ebenfalls verringert werden, so dass auch hier ein positiver Einfluss der Zahnpastenanwendung angenommen werden kann. Im Korrosionstest ermöglichten die Werte der Rauigkeitsmessungen keine definitive Aussage über einen eventuellen korrosiven Einfluss der getesteten Produkte. Dies lag daran, dass zum einen im Rahmen der Versuchsbedingungen keine exakte Reproduktion der Messpunkte möglich war, zum anderen die gemessenen Werte größtenteils innerhalb der Bandbreite fabrikneuer Bänder lagen. Eine leichte Tendenz hin zu einer Homogenisierung der Oberfläche im Sinne eines chemischen „Polishing“ kann jedoch bei 2 der 6 Proben vermutet werden. Die gravimetrische Messung sowie die Ergebnisse der TXRF-Analyse zeigen, dass es allein bei der Meridol-Mundspüllösung zu Korrosionsvorgängen gekommen ist. Ein Substanzverlust von >180 μg und der Nachweis der Legierungsbestandteile Eisen, Chrom und Nickel in der Testlösung lassen diese Aussage zu. Diese Werte sind jedoch nicht von klinischer Relevanz, da die tägliche Aufnahme von Chrom- und Nickelionen durch Nahrung, Trinkwasser und Atemluft weitaus höher ist. Untersuchungen haben ergeben, dass allein durch die Nahrung täglich je über 100 μg Chrom und Nickel aufgenommen werden [61, 64, 71]. Der Anteil, der durch Korrosion von festsitzenden kieferorthopädischen Apparaturen hinzukommen könnte, wäre dagegen verschwindend gering. Man muss beachten, dass die Versuchsbedingungen im Korrosionstest nicht denen beim täglichen Gebrauch dieser Mundhygieneprodukte entsprachen. Die Kontaktzeit der Apparatur bei sachgemäßer Anwendung der Meridol-Mundspüllösung würde bei zweimaligem täglichen Gebrauch von je 30 Sekunden in 3 Jahren ungefähr 18 Stunden betragen (2 x 30 sec x 365 Tage x 3 Jahre), während sie im Korrosionstest bei 35 Tagen lag (=840 Stunden). Eine gleichmäßige Korrosionsrate vorausgesetzt, würde dies bedeuten, dass das getestete Band in 3 Jahren statt 180 μg nur ca. 3,9 μg an Substanz verlieren würde, entsprechend einem Verlust von 0,0036 μg pro Tag. Selbst bei einer kompletten Multiband-Apparatur an 28 Zähnen würden diese Werte gegenüber der täglichen Schwermetallionenaufnahme durch Nahrung und Umwelt nicht ins Gewicht fallen. Es bleibt festzustellen, dass durch den sachgerechten täglichen Gebrauch der getesteten Mundhygieneprodukte keinerlei negativer Einfluss auf die Funktionalität der Apparaturen und auch keine gesundheitliche Gefährdung durch freigesetzte Metallpartikel befürchtet werden muss. So ist weiterhin mit Nachdruck zu fordern, dass Patienten mit festsitzenden Apparaturen nach jeder Mahlzeit eine gründliche Zahnreinigung durchführen, um das Risiko der Entstehung von Entkalkungen, bzw. kariösen Läsionen und Parodontopathien zu minimieren. Diese Schäden stellen nach wie vor die häufigsten Nebenwirkungen bei einer Behandlung mit festsitzenden Apparaturen dar und sind durch eine gute Mundhygiene vermeidbar. Die beobachteten Veränderungen bei der eingangs erwähnten Patientin (S.14, Abb.1-4) können somit nicht auf die verwendeten Mundhygienemittel zurückgeführt werden. Hier scheinen andere Faktoren, wie bspw. eine nicht ausreichende oder falsche Mundhygiene ursächlich gewesen zu sein. Zusätzlich können aber auch die Zusammensetzung des Speichels, dessen pH-Wert und Fließrate, sowie die Bakterienflora der Mundhöhle und spezielle Ernährungsgewohnheiten der Patientin als Kofaktoren eine Rolle gespielt haben. Die Klärung dieser Fragestellungen würde weitergehende Untersuchungen erfordern.
In der Literatur des 16. bis 18. Jahrhunderts finden sich sechs für eine medizinhistorische Analyse geeignete Darstellungen von operativen Eingriffen am Magen: 1521 wurde eine Magenfistel nach perforierender Stichverletzung des Magens operativ versorgt. Die Magenwunde wurde durch 4 Nähte verschlossen, die Laparotomiewunde ebenfalls vernäht. 1602 erfolgte die Entfernung eines verschluckten Messers nach gedeckter Perforation der Messerspitze in die Bauchdecke („der böhmische Messerschlucker“; Operateur: Meister Florian Matthis in Prag). Von dem Chirurgen wurde eine Inzision der Haut über der in der Bauchdecke tastbaren Messerspitze durchgeführt. 1635 wurde ein verschlucktes Messers durch Laparotomie und Gastrotomie operativ entfernt („der preußische Messerschlucker“; Operateur: Chirurg Daniel Schwabe in Königsberg/Pr.). Die Magenwunde wurde nicht genäht, es wurden nur Hautnähte angelegt. 1678 wurde eine Magenfistel nach abdomineller Schußverletzung durch ein „blechernes“ Röhrchen versorgt, das als Drainage nach außen funktionierte (Operateur: Chirurg Matthäus Gottfried Purmann [1649-1711] in Stralsund). 1692 erfolgte eine schrittweise Extraktion (über 6 Wochen) eines verschluckten Messers, das sekundär in die Bauchdecken gedeckt perforiert war („der Hallische Messerschlucker“; Operateur: Dr. med. Wolfgang Wesener in Halle). Es wurde eine Inzision des Bauchdeckenabszesses durchgeführt. 1720 wurde ein verschlucktes Messer mit einer Zange durch Laparotomie und Gastrotomie entfernt („die ermländische Messerschluckerin“; Operateure: Dr. med. Heinrich Bernhard Hübner und der Chirurg Johann Horch bei Rastenburg/Pr.). In allen publizierten Fallberichten überlebten die operierten Patienten den Eingriff. Mit Ausnahme der ältesten Operation [1521] wurden alle Berichte von den Operateuren bzw. von an der Operation direkt beteiligten Ärzten verfaßt. Die Eingriffe wurden zunächst von Handwerkschirurgen [1635, 1678], später [1692, 1720] auch von studierten Ärzten (medici) durchgeführt. Die Indikation zur Operation wurde aber immer von den akademisch ausgebildeten „Medici“ gestellt. Als Nahtmaterial wurde bei den geschilderten Operationen „Seide“ verwendet [1643,1692]. Als Instrumente werden neben „Messer“ zur Inzision der Bauchdecken bzw. des Magens, „Zangen“ [1635, 1720] und „krumme Nadeln“ [1635] erwähnt. In einem Fall wurden sogar Haltefäden zur Fixierung des Magens vor der Gastrotomie angelegt [1635]. Der Zugangsweg zur Bauchhöhle durch die einzelnen Schichten der Bauchwand wurde anatomisch begründet durchgeführt [1635, 1678, 1720]. Spezielle Angaben zur perioperativen Schmerzbehandlung werden nicht gemacht, es wurden aber verschiedene alkoholhaltige Heilpflanzenextrakte („innerlich und äußerlich Artzneyen“) angewendet [1692]. Warum wurden die Eingriffe am Magen erst Ende des 19. Jahrhunderts häufiger durchgeführt, obwohl das operative Können, das anatomische Verständnis und das dazu notwendige Instrumentarium bereits seit dem 17. Jahrhundert vorhanden gewesen sind und in mindestens sechs Einzelfällen auch erfolgreich eingesetzt wurde? Im Zeitalter der Humoralpathologie, die bis in das 19. Jahrhundert hinein die vorherrschende Krankheitstheorie in Mitteleuropa gewesen ist, hatte eine chirurgische Behandlung von „inneren“ Magenerkrankungen noch keine theoretische Begründung. Krankheiten infolge Säfteungleichgewichte lassen sich nicht operativ behandeln. Die Chirurgie beschränkte sich als „Wundarznei“ daher vorwiegend auf die Versorgung von Wunden und von Verletzungen. Dazu gehörten auch Magenverletzungen von außen (perforierende Stichverletzungen, Schußverletzungen) oder von innen (gedeckte Perforation durch das verschluckte Messer). Erst die Durchsetzung eines lokalistischen, organbezogenen Denkens („Organpathologie“, „Zellularpathologie“) in der Medizin war die entscheidende theoretische Voraussetzung für eine Chirurgie von inneren Erkrankungen. Hinzu kamen in der zweiten Hälfte des 19. Jahrhunderts ein vermehrtes Wissen über Schmerzbekämpfung (Narkose mit Chloroform oder Äther) und Antisepsis (Asepsis), die das Risiko von Wundinfektionen und Peritonitis deutlich herabsetzten.
Interpret und kreativer Lückenfüller : wie optische Illusionen in der Großhirnrinde entstehen
(2005)
Optische Täuschungen sind nicht nur kuriose Beispiele dafür, wie leicht unser ahrnehmungsapparat »ausgetrickst« werden kann, sie werden seit langem von Psychologen und Kognitionsforschern genutzt, um das visuelle System und seine neurophysiologischen Prinzipien zu erforschen. Auch Scheinbewegungen gehören zu diesen Täuschungen: Sie entstehen durch den schnellen Wechsel statischer Bilder. Frankfurter Wissenschaftler des Max-Planck-Instituts für Hirnforschung konnten mit Hilfe der funktionellen Magnetresonanztomografie zeigen, wie das Gehirn die Illusion einer Bewegung erzeugt, obwohl der gebotene Reiz nur aus benachbarten, abwechselnd aufblinkenden Quadraten bestand. Hier wird nicht nur das konstruktive Prinzip deutlich, mit dem das visuelle System arbeitet, mehr noch: Die Großhirnrinde betätigt sich als »kreativer Lückenfüller«, der aktiv fehlende Sinnesdaten zu »plausiblen« Gesamteindrücken ergänzt.
Die Wahrnehmung von Objekten gelingt uns jeden Tag unzählige Male – zumeist rasend schnell und problemlos. Obwohl fast immer mehrere unserer Sinne gleichzeitig bei ihrer Wahrnehmung angesprochen werden, erscheinen uns diese Objekte dennoch als ganzheitlich und geschlossen. Für die neuronale Verarbeitung eines bellenden Hundes zum Beispiel empfängt die Großhirnrinde zumindest Eingangsdaten des Seh- und des Hörsystems. Sie werden auf getrennten Pfaden und in spezialisierten Arealen mit aufsteigender Komplexität analysiert. Dieses Funktionsprinzip der parallel verteilten Verarbeitung stellt die Wissenschaftler aber auch vor das so genannte »Bindungsproblem«: Wo und wie werden die Details wieder zu einem Ganzen – zu einer neuronalen Repräsentation – zusammengefügt? Am Institut für medizinische Psychologie der Universitätsklinik Frankfurt untersuchen Neurokognitionsforscher die crossmodale Objekterkennung mit einer Kombination modernster Verfahren der Hirnforschung und kommen dabei den Ver - arbeitungspfaden in der Großhirnrinde auf die Spur.
Muss das Strafrecht, vor allem der Schuldbegriff, wegen aktuellen Erkenntnisse der Hirnforschung in einem neuen Licht gesehen werden? Wenn unsere Entscheidungen und Handlungen durch neurologische Prozesse vollständig kausal vorherbestimmt sind, bleibe für die Willensfreiheit kein Raum. Und wenn der Wille nicht frei ist, dann könne ein Täter für eine Straftat auch nicht verantwortlich sein; denn er hätte in der gleichen Situation nicht anders handeln, also die Straftat auch nicht unterlassen können. Wird die Freiheit der Person so fundamental in Frage gestellt, steht freilich das Recht insgesamt zur Disposition.
Warum die von Leonardo da Vinci gemalte »Mona Lisa« so viele Betrachter fasziniert, hat als eines der größten Rätsel der Kunst jahrzehntelang die Phantasie von Wissenschaftlern, Schriftstellern und Kunstliebhabern beflügelt. In der jüngeren Kunstgeschichte war eine solche Frage allerdings kaum von Interesse. Heute nun beanspruchen Vertreter anderer Disziplinen, die Wirkung solcher Meisterwerke objektiv erklären zu können ...
Der simulierte Säugling : Neuroinformatiker erforschen, wie Babys lernen, Blicke zu verfolgen
(2005)
Als Voraussetzung für die experimentellen Arbeiten wurde am Mineralogischen Institut in Frankfurt eine Hochdruckpresse mit einer Multi-Anvil-Apparatur vom Walker-Typ aufgebaut und kalibriert. Diese Arbeiten nahmen einen beträchtlichen Teil der Promotionszeit ein. In einer Reihe von Hochdruck-Experimenten wurde dann die maximale Löslichkeit von Aluminium und den Seltenerd-Elementen Lanthan, Gadolinium und Lutetium in den Phasen des CaSiO3-Systems im Druckbereich zwischen 2.0 und 13.0 GPa untersucht. Unsere Experimente ergaben eine Zunahme der maximalen Löslichkeit mit steigendem Druck, von Wollastonit über Ca-Walstromit, Larnit + Si-Titanit bis Ca-Perowskit. Ca-Perowskit zeigt extrem hohe SEE-Konzentrationen mit einem Maximum bei den mittleren SEE. In den anderen Phasen nimmt die Löslichkeit mit zunehmender Kompatibilität der SEE zu. Innerhalb der Stabilitätsfelder zeigte sich keine signifikante Druck- oder Temperatur-Abhängigkeit der maximalen Löslichkeit. Anhand der Mikrosonden-Analysen konnte gezeigt werden, dass der Einbau von Al und SEE in Ca-Walstromit nicht über eine gekoppelte Substitution erfolgt, sondern wahrscheinlich über eine Defektstruktur. Dies deckt sich mit unseren TEM-Untersuchungen an diesen synthetischen Produkten, die eine hohe Dichte an planaren Baufehlern mit leicht erhöhten SEE-Konzentrationen ergaben. In allen Ca-Silikat-Phasen lag die maximale Löslichkeit der Seltenen Erden höher als die Konzentration in natürlichen Proben. Damit steht fest, dass die in Einschlüssen gemessenen SEE-Gehalte „primär“ sind und sich nicht durch etwaige Entmischungen im Zuge einer Anpassung der Kristallstruktur an die veränderten P,T-Bedingungen verändert haben. Entmischungen in Form einer SEE-reichen Phase würden eine an LSEE extrem angereicherte Quelle voraussetzen. Ein Vergleich unserer Subsolidus-Experimente mit CaSiO3-Einschlüssen in Diamanten aus Guinea zeigt, dass einige mit bis zu 0.13 Gew.% Al2O3 an Aluminium gesättigt sind. Diese Tatsache ist besonders interessant bei der Interpretation Alhaltiger Einschlussphasen. Neben absoluten Spurenelement-Konzentrationen sind Verteilungskoeffizienten äußerst wertvolle Hilfsmittel bei der Bewertung natürlicher Proben. Die in der Literatur bestehenden Datensätze wurden mit unseren Kristall/Schmelz-Verteilungskoeffizienten bzw. Verteilungskoeffizienten zwischen Ca-Silikatphasen erweitert. Verteilungskoeffizienten der Seltenerd-Elemente zwischen Ca-Walstromit und Karbonat sind um eine Größenordnung höher als Ca-Walstromit/Schmelz-Verteilungskoeffizienten und zeigen eine größere Steigung zwischen den MSEE und den SSEE (Lu/Gd). Die Seltenen Erden verhalten sich sowohl in Larnit als auch in Si-Titanit inkompatibel, wobei DX/L La für Larnit etwa 0.1 und für CaSi2O5 etwa 0.002 ist, d.h. auch, dass die LSEE im Vergleich zu Si-Titanit bevorzugt in Larnit eingebaut werden. Al verhält sich in Si-Titanit Zusammenfassung 147 kompatibel (DX/LAl=4) und in Larnit leicht inkompatibel. Diese Ergebnisse decken sich mit Analysen an natürlichen Proben. Die SEE-Verteilungskoeffizienten zwischen Ca-Perowskit und Schmelze liegen mit Ausnahme von La über eins und zeigen in Übereinstimmung mit Literaturdaten ein Maximum bei Gd. Für Granat konnte gezeigt werden, dass der Einbau der SEE und Si in MgO-haltigen Kristallen in Abhängigkeit von Druck und Startzusammensetzung über eine Ca SEE2 Mg2 Si3O12- Komponente bzw. über eine Ca3 MgSi Si3O12-Komponente mit 6-fach koordiniertem Silizium erfolgt. In zahlreichen Experimenten kristallisierte eine neue Ca-SEE-Silikat-Phase mit Feldspat-Stöchiometrie. Dabei handelt es sich offenbar um ein Mischkristallsystem mit einem Endglied, in das vorwiegend die leichten SEE eingebaut werden und in einem zweiten mit vorwiegend schweren SEE. Ab einem Druck von etwa 10.0 GPa trennt ein Solvus die beiden Endglieder voneinander. In der Literatur ist bisher nur ein CaLa2Si2O8-Endglied beschrieben worden. In einigen Experimenten mit P und Li wurde zusätzlich untersucht, ob diese Elemente zur Rekonstruktion der Bildungsbedingungen von Diamanten verwendet werden können. Dabei zeigte sich, dass die max. Löslichkeit von Li in CaSiO3 näher an den natürlichen Probenzusammensetzungen liegt und damit möglicherweise Potential für die Rekonstruktion von Bildungsbedingungen hat. In einem weiteren Teil dieser Arbeit wurde die Kinetik retrograder Reaktionen im CaSiO3-System untersucht. Die für die In-Situ-Experimente mit Synchrotron-Strahlung notwendigen Versuchsaufbauten wurden von uns entwickelt und die entsprechenden Entwicklungsschritte und technischen Probleme ausführlich beschrieben. Anhand von Entlastungsexperimenten wurden die Disproportionierung von Ca-Perowskit zu Larnit + Si-Titanit und die Rekombination zu Ca-Walstromit bei unterschiedlichen Temperaturen und unter dem Einfluss von Wasser untersucht. Aufgrund der wenigen verwertbaren Daten, die uns vorliegen, konnten zwar keine Aktivierungsenergien berechnet werden, es sind aber aufgrund unser Beobachtungen folgende Feststellungen zu treffen: Die Reaktion von Ca-Perowskit zu Larnit + Si-Titanit erfolgt bei gleicher Temperatur offenbar um Größenordnungen schneller als die sich bei niedrigen Drucken anschließende Rekombination zu Ca-Walstromit. Dies deckt sich mit Beobachtungen an natürlichen Proben, bei denen Larnit und Si-Titanit teilweise unvollständig zu Ca-Walstromit reagierten. Dadurch erscheint es eher unwahrscheinlich, dass amorphes CaSiO3 in Diamanten ein direktes Umwandlungsprodukt von Ca-Perowskit ist. Aber auch für die in der Literatur beschriebene Amorphisierung von Ca-Walstromit-Einschlüssen (Stachel 2000) noch innerhalb des umgebenden Diamanten ließ sich durch unsere In-Situ-Entlastungsexperimente nicht stützen. Eine Amorphisierung von Ca-Walstromit beobachteten wir nur bei einer Untersuchung am TEM, wo die Phase sehr instabil war und selbst in einem Kryohalter rasch unter dem Einfluss der Elektronenstrahls amorphisierte. Die Beugungs-Spektren, die nach einer Druckentlastung im Ca-Walstromit-Stabilitätsfeld aufgenommen wurden, unterschieden sich trotz der CaSiO3-Chemie der neu gebildeten Phase deutlich von unseren Ca-Walstromit-Referenz-Spektren, so dass die Umwandlung möglicherweise über eine metastabile Zwischenstufe erfolgt. Vor dem Hintergrund von unterschiedlichen, in der Literatur beschriebenen Strukturtypen von Ca-Walstromit wäre eine systematische Untersuchung der Struktur innerhalb des gesamten Stabilitätsfeldes wichtig.
Die vorliegende Arbeit ist der Fragestellung nachgegangen, ob sich die Gedächtnisleistung, insbesondere die von älteren Menschen, durch Gedächtnistraining verbessern lässt. Dabei sollen Verhaltensdaten und EEG-Daten, die simultan mit der Bewältigung einer Gedächtnisaufgabe erhoben wurden, korreliert werden. Untersucht wurden zwei verschiedene Gruppen. Zum einen Mild Cognitive Impairment Patienten und zum anderen eine altersähnliche Kontrollgruppe. Unter Mild Cognitive Impairment (MCI) versteht man eine leichte kognitive Beeinträchtigung des Gedächtnisses, welche aber die Kriterien einer Demenzmanifestation noch nicht erfüllt. Die Diagnosekriterien für MCI sind nicht einheitlich. Ein häufiges Kriterium wurde von Petersen (1999) definiert und ist die objektive Beeinträchtigung des Gedächtnisses ohne weitere kognitive Einbußen. Die Leistungsfähigkeit des Gedächtnisses/Gedächtnissubsystems muss dabei mindestens 1,5 Standardabweichungen schlechter sein, als die einer alters- und ausbildungsgleichen Population. Etwa 16-34 % aller 65 jährigen leiden unter dieser Form der kognitiven Beeinträchtigung. Schätzungen ergeben, dass 70 % der demenziellen Erkrankungen innerhalb von 2-3 Jahren aus einer MCI hervorgehen. Veränderungen des EEGs bei Patienten mit der Alzheimer'schen Demenz (AD) und MCI-Patienten wurden in den letzten Jahren untersucht, insbesondere Untersuchungen der EEG-Spontanaktivität, da diese vor allem bei den AD-Patienten leichter zu realisieren sind. Auffällig ist ein allgemein „langsamer“ werdendes EEG bei den Demenz-Patienten. Vor allem im okzipitalen Bereich ist ein Verlust des Alpha-Blocks beim Öffnen der Augen zu registrieren. In einem sehr frühen Stadium der AD ist meist noch kein verändertes EEG zu verzeichnen, ebenso bei MCI-Patienten. Eine beobachtbare Veränderung der EEG-Oszillationen könnte aber für eine frühe Diagnose der Krankheit und somit auch für eine frühe Behandlungsmöglichkeit von Bedeutung sein. Das Elektroenzephalogramm misst elektrische Potentiale, die im Gehirn durch „Neuronenaktivität“ verursacht werden und hat eine besonders gute zeitliche Auflösung (in ms Bereich) dafür aber eine schlechte räumliche. Die schlechte räumliche Auflösung ist dadurch zu begründen, dass man beim EEG „nur“ Oberflächenpotentialänderungen registrieren kann und dadurch nicht die Quelle der Potentiale lokalisieren kann. Die hohe zeitliche Auflösung des EEGs ermöglicht es aber die neuronale Aktivität während und auch nach der Kodierung sensorischer Informationen (z.B. visuelle Stimulation, wie in dieser Arbeit) zu beobachten. In vorliegender Arbeit wurde untersucht, ob gesunde, ältere Menschen im Vergleich zu Patienten mit leichter Gedächtnisstörung, beim Bewältigen einer Gedächtnisaufgabe, unterschiedliche Hirn-Aktivitäten aufweisen und inwieweit ein Gedächtnistraining von vier Wochen die Gedächtnisleistung der Probanden/Patienten aber auch das EEG-Aktivitätsmuster verändern kann; ob das Gedächtnis also auch im Alter oder sogar bei Dysfunktionen durch Training verbessert werden kann. Dabei galt gerade dem frontalen Bereich besonderes Interesse, da diesem Bereich für das Gedächtnissystem eine besondere Relevanz zugeschrieben wird. Eine delayed matching to sample Aufgabe wurde für visuelle Stimulation, Testung des Arbeitsgedächtnisses und für das kognitive Training durchgeführt. Die neuropsychologischen Daten wurden hierfür mit den EEG-Daten korreliert.
Leben und Werk des aus Münzenberg/Hessen stammenden Algebraikers Konrad Landvogt (um 1500) hat Menso Folkerts 1992 in einer grundlegenden Untersuchung erstmals in Umrissen skizziert. Hauptsächlich gestützt auf vier Handschriften, die in der Universitätsbibliothek Uppsala aufbewahrt werden, faßte er zusammen, was sich aus diesen Quellen über die (ungedruckt gebliebenen) mathematischen Schriften Landvogts und über seinen Lebensumkreis (Studium in Erfurt, persönliche Beziehungen nach Arnsburg, Friedberg, Mainz, Worms) ermitteln läßt. Wie Folkerts selbst betonte, war es ihm nicht möglich, in jeder Hinsicht abschließende Nachweise zu bieten; weitere Detailstudien seien notwendig. Als Beitrag dazu verstehen sich die folgenden Ergänzungen.
Vom 19. bis 20.9.2003 fand in Worms eine vom Stadtarchiv und der Domgemeinde St. Peter organisierte wissenschaftliche Tagung aus Anlass des 500. Todestages des Bischofs Johann von Dalberg (1482–1503) statt, bei der Referenten ganz unterschiedlicher Richtungen das Leben, das Wirken und die Zeitumstände in den Jahren um 1500 am Mittelrhein und vor allem in der Bischofsstadt Worms und ihrem Umland beleuchtet haben. Die Tagung stieß auf starkes Interesse, wurde doch mit Johann von Dalberg eine bedeutende, facettenreiche Persönlichkeit näher betrachtet, die in einer für die Stadt und die Region außerordentlich wichtigen und ereignisreichen Zeit wirkte und dessen Leben zahlreiche, bis heute greifbare Spuren in Worms und seinem Umland hinterlassen hat. Dankenswerterweise waren die Referenten bereit, ihre Beiträge für einen Sammelband zur Verfügung zu stellen, den wir hiermit der Öffentlichkeit vorlegen. Selbstverständlich können die Beiträge nur ausgewählte Aspekte beleuchten und bei weitem kein umfassendes Bild der Person, ihrer Verflechtungen und Verbindungen sowie der Zeit um 1500 für Stadt und Bistum Worms bieten. Allerdings zeigt sich in den Beiträgen ein weites Spektrum der Beschäftigung mit dem Bischof und seiner Zeit, neue Sichtweisen und Fragestellungen der jüngeren Forschung lassen sich ausmachen, Wege für die weitere Beschäftigung werden aufgezeigt. Wert gelegt wurde auf eine gute Bebilderung des Bandes; seiner verbesserten Nutzbarkeit soll das beigegebene Orts- und Personenregister dienen. Inhaltsverzeichnis Vorwort S. V Burkard KEILMANN, Johann von Dalberg und das Bistum Worms S.1 Gerold BÖNNEN, Zwischen Konflikt und Zusammenleben: Bischof Johann von Dalberg und die Stadt Worms S.41 Peter WALTER, „Inter nostrae tempestatis Pontifices facile doctissimus“. Der Wormser Bischof Johannes von Dalberg und der Humanismus S. 89 Joachim KEMPER, Die Wormser Klosterlandschaft in der Zeit des Johann von Dalberg S. 153 Rüdiger FUCHS, Zu Inschriften des Bistums Worms zur Zeit Bischof Johanns von Dalberg S. 169 Winfried WILHELMY, Zwischen Krummstab und Schnabelschuh. Kunstpolitik und Stiftungswesen an Rhein und Main im Zeitalter Johanns von Dalberg S. 187 Hanns HUBACH, Johann von Dalberg und das naturalistische Astwerk in der zeitgenössischen Skulptur in Worms, Heidelberg und Ladenburg S. 207 Register S. 233
Exempel in Vers- oder Prosaform, in lateinischer Sprache oder in volkssprachlichen Versionen sind aus den späteren Jahrhunderlen des Mittelalters in hoher Zahl überliefert. Neben den großen eigenständigen Exempla-Kompilationen waren es vor allem Enzyklopädien, Chroniken, Predigtsammlungen und Erbauungsschriften, die eine Vielzahl von Exempeln in sich aufnahmen und in ihren Bereichen weitergaben. J.-TH. WELTER hat der Gattung bereits 1927 einen umfassenden literaturgeschichtlichen Überblick gewidmet. Für elementare, auf Einzeltexte gerichtete Nachforschungen stellte F. C. TUBACH mit dem 1969 veröffentlichten 'Index exemplorum' einen nützlichen Wegweiser bereit. TUBACHS Werk hat auch zur näheren Bestimmung des im folgenden mitgeteilten kleinen Handschriftenfundes beigetragen. ...
Wie kaum ein anderer hat Sartre die Freiheit des Menschen betont und gegen die Zwangsvorstellung angeschrieben, der Mensch sei determiniert. Kann die Freiheit sich selbst zum Wert erheben? Zum hundertsten Geburtstag Jean-Paul Sartres sind dessen Entwürfe für eine Moralphilosophie auf Deutsch erschienen.
Ist die Willensfreiheit eine Illusion oder können wir auch anders? Eine Auseinandersetzung mit den neueren Ergebnissen der Hirnforschung von Hanko Uphoff. Anstatt zuzugestehen, dass man bisher keine Erklärung für eine vollgültige Freiheit habe, leugnet man sie lieber, da sie nicht ins angelegte Raster passt. Wenn die Folgerungen, die aus experimentellen Ergebnissen der Hirnforschung gezogen werden sollen, offensichtlich die Gestalt absurder Stilblüten annehmen, sollten die Akteure überlegen, ob sie nicht anders fragen müssten, anstatt die Wirklichkeit zu vergewaltigen.
Ausbildung in Evidenzbasierter Medizin am Universitätsklinikum Frankfurt am Main : meeting abstract
(2005)
Einführung: Obwohl international die Integration der Evidenzbasierten Medizin (EbM) in die klinische Medizin und in die Ausbildung voranschreitet, ist die Verbreitung im deutschen Klinikalltag eine fortbestehende Herausforderung. Vor allem ist die Vernetzung der theoretischen Lerninhalte mit den klinisch-praktischen Fertigkeiten eine weit verbreitete Schwierigkeit. Die neue Ärzteapprobationsordnung bietet Möglichkeiten für innovative Konzepte im medizinischen Curriculum. Sowohl die systematische Informationssuche als auch die kritische Bewertung und Anwendung medizinischer Informationen sind wichtige Kernkompetenzen der ärztlichen Tätigkeit. Zum Wintersemester 03/04 wurde in Frankfurt das erste curriculare Seminar EbM als Teilfach des Querschnittsbereiches I (Epidemiologie, Med. Biometrie und Med. Informatik) auf der Basis des peer-teaching eingeführt und wissenschaftlich begleitet.
Methoden: Für alle Studierenden des 2. klinischen Semesters wird in Kleingruppenseminaren an 4 Terminen ein Basiskurs EbM nach den Kriterien des Deutschen Netzwerkes für Evidenzbasierte Medizin e.V. durchgeführt. Dabei werden die Module Vierteilige Frage, Internetrecherche, Diagnose und Therapie erarbeitet. Ein individuelles Fallbeispiel (klinische Fragestellung) wird von jedem Studierenden selbständig mit allen Schritten der EbM bearbeitet. Jede Seminararbeit wird im Rahmen eines journal clubs von dem Studierenden vorgestellt und in der Kleingruppe diskutiert. Während des ersten unterrichteten Semesters erhielt jeder Seminarteilnehmer zu Seminarbeginn und zum Seminarende einen Testfragebogen mit 20 Fragen, sowie zum Ende einen anonymisierten Fragebogen mit der Bitte um Einschätzung. Die anonymisierten Fragebogen werden seitdem weiter in jedem Semester eingesetzt.
Ergebnisse: Es wurden im Durchschnitt nach dem Seminar 7,48 (99% KI 6.61-8.36) Fragen mehr als vor dem Seminar richtig beantwortet. Der Kurs wurde im Median mit der Note gut eingeschätzt (Weberschock et al 2005, im Druck). Die Auswertungen der Einschätzungen der nachfolgenden Semester zeigten noch bessere Ergebnisse.
Schlussfolgerung: EbM ist in der medizinischen Ausbildung sehr gut durchführbar und wird mit den richtigen didaktischen Konzepten auch voll akzeptiert. Vor allem die Fähigkeit, medizinische Informationen korrekt zu bewerten und sie klinisch fachgerecht anzuwenden ist eine essentielle Kompetenz für die ärztliche Tätigkeit und bedarf den sichern Umgang mit den Methoden und Medien.
Ausblick: Die Vernetzung der theoretischen Aspekte bei der medizinischen Informationsverarbeitung mit der klinischen Anwendung der gewonnenen Erkenntnisse ist für die Ausbildung in EbM ein essentieller Bestandteil. Um die Lehrenden auf diese Aufgabe adäquat vorbereiten zu können, werden in naher Zukunft in Zusammenarbeit mit dem Deutschen Netzwerk Evidenzbasierte Medizin (DNEbM), der Arbeitsgemeinschaft der wissenschaftlich medizinischen Fachgesellschaften (AWMF) und der Gesellschaft für medizinische Ausbildung (GMA) Train-the Teacher-Seminare veranstaltet. Diese Seminare sollen einerseits die didaktischen Methoden und Fertigkeiten der EbM-Lehrenden weiter ausbauen und andererseits eine Brücke zwischen theoretischen Lerninhalten und klinischen Bezügen schlagen.
Die medizinische Ausbildung wird gegenwärtig zunehmend mit E-Learning-Elementen angereichert. Die Orientierung in der in verschiedenste Netze zersplitterten Lernlandschaft erweist sich häufig als problematisch und zeitaufwändig, und dies bereits innerhalb einzelner Universitäten und Fachbereiche. "FAUST" - Frankfurter Ausbildungs - und Studienangebote der Medizin im virtuellen Raum (http://www.med.uni-frankfurt.de/faust/index.html) - löst dieses Problem. FAUST bietet einfache und schnelle Zugangsmöglichkeiten zu allen instituts- und klinikeigenen elektronischen Informationsquellen (z. B. Vorlesungsskripte) und E-learning Projekten (e!uro; fanatomic.de; HistoPathOnline, E-learning-Academy) sowie zu überregionalen medizinischen Lernplattformen (z. B. k-med, LaMedica), die in Frankfurt entwickelt bzw. mitentwickelt wurden und bereits curricular eingesetzt werden. Schneller Zugang wird auch zum Lernmanagementsystem WebCT vermittelt, das zunehmend zur Kommunikation, strukturierten Präsentation von E-Content sowie zur Durchführung elektronischer Klausuren eingesetzt wird. Das Portal wurde von einem im E-Learning erfahrenen Team (Kliniker, Vorkliniker, Designer, Informatiker) mit Mitteln des Lehr- und Studienausschusses entwickelt. Es ist seit dem Sommersemester 2005 freigeschaltet. FAUST versteht sich zudem als Anlaufstelle für Lehrende des Fachbereichs Medizin, die am E-Learning interessiert sind. Sie können Beratung bei didaktischen und technischen Fragen, sowie Unterstützung bei der Realisierung ihrer Projekte erhalten. FAUST möchte auf diesem Wege die Vernetzung der E-Learning-Akteure unterstützen.
Kurzfassung Vortrag: Fächerübergreifende Lehre und verpflichtende Fortbildung (CME) für Ärzte erfordern innovative Lernmethoden. Eine Lösung wird teilweise in der Nutzung elektronischer Medien gesehen. Unklar ist jedoch, wie konkret eine Umsetzung in der Aus-, Fort- und Weiterbildung im Fach Allgemeinmedizin bisher erfolgte, welche Chancen und Möglichkeiten es gibt und wie die weitere Entwicklung aussehen kann. Um einen Überblick über die aktuellen E-Learning-Aktivitäten zu erhalten, formierte sich eine universitäts- und bundesländerübergreifende Initiative. In drei Phasen soll die Grundlage für die Entwicklung einer Strategie für die effektive Nutzung elektronischer Lehr- und Lernmedien für das Fach Allgemeinmedizin geschaffen werden: Phase 1 - Nationales Expertentreffen (Juli 2005 in Frankfurt): Diskussion von Erfahrungen, Problemen und Möglichkeiten des Einsatzes elektronischer Medien in der Allgemeinmedizin. Phase 2 - Gründung eines Netzwerks: Zusammenarbeit, Koordination und gegenseitige Unterstützung bei der Entwicklung von E-Learning-Modulen. Phase 3 - Evaluation von E-Learning in der Allgemeinmedizin: systematische qualitative und quantitative Untersuchungen. Im Rahmen eines Workshops sollen die Erfahrungen aus dem Expertentreffen mit Lehrenden und Fortbildenden aus anderen Fachbereichen diskutiert werden. Kooperationen über die Allgemeinmedizin hinaus können weitere Synergien schaffen. Der Workshop dient dem Austausch über Chancen und Limitationen entsprechender Angebote.
Aus Mitteln der Universitätsbibliothek und mit Unterstützung der Gesellschaft der Freunde der Stadt- und Universitätsbibliothek konnte ein ungewöhnliches und wertvolles Stück für die Sammlungen im Archivzentrum erworben werden. Es handelt sich um den originalen Entwurf zu einem Exlibris für die gemeinsame Bibliothek Max Horkheimers und Friedrich Pollocks, das der Künstler Ott-Heinrich Strohmeyer 1919 geschaffen hat. Schon die Tatsache, daß die beiden damals noch jungen Wissenschaftler dem utopischen Plan einer gemeinsamen Freundschaftsbibliothek anhingen, ist mit diesem Stück Kleingraphik eindrucksvoll belegt. Der Künstler ist ein bedeutender Vertreter des Expressionismus und das uns nun vorliegende Blatt bietet ein gediegenes Beispiel der eher ins esoterische zielenden Kunst dieser Zeit. Daß die marxistischen Denker sich damit repräsentiert fühlten, entbehrt nicht einer gewissen Ironie.
Während seiner mittlerweile über 30jährigen Auseinandersetzung mit dem Porträt gelangte Vollrad Kutscher zu der Erkenntnis, dass es unmöglich ist, in unserer Zeit ein gültiges Bild von sich selbst und in der Folge von anderen zu erstellen. Dass Kutscher dennoch immer wieder Porträts herstellt, zeigt einen Widerspruch auf, der sich leitmotivisch durch die Arbeiten zieht und in ihnen selbst formal manifestiert ist. ...
Qualitatives Denken : John Deweys Erfahrungsbegriff zwischen Erkenntnislehre und Kunsttheorie
(2005)
Inhalt: Vorwort S. 4 Einleitung: John Deweys Radikalität. Eine Erinnerung S. 10 Erstes Kapitel: Implosionen des Empirismus 1.1 Rorty als Apologet und Kritiker Deweys S. 42 1.2 Darwin als Anstoß der Philosophie S. 58 1.3 Die Naturalisierung der menschlichen Intelligenz S. 64 1.4 Brandoms Pragmatismus: Phänomenalismus in Bezug auf Wahrheit S. 75 1.5 Peirce und Dewey als Antipoden? S. 85 Zweites Kapitel: Der Mythos des Gegebenen 2.1 Sellars’ Attacke gegen den Empirismus S. 93 2.2 Inferentialismus und Handlungstheorie S. 101 2.3 Common Sense als Kritik S. 105 Drittes Kapitel: Nach dem Ende der Gewißheit 3.1 Der Dualismus von Theorie und Praxis S. 112 3.2 Raum der Gründe und Raum der Handlungen S. 116 3.3 Qualitatives Denken S. 127 Viertes Kapitel: McDowell und Dewey über Erfahrung und Natur Zur Rehabilitierung des Erfahrungsbegriffs S. 145 4.1 Kohärenz und Kausalität in Davidsons Kritik des Empirismus S. 151 4.2 Die Konstruktion der zweiten Natur S. 160 4.3 Physiologie des Verstehens: Deweys Kritik am Behaviorismus S. 168 Fünftes Kapitel: Erfahrung als Kunst 5.1 Erfahrungen und eine Erfahrung S. 185 5.2 Die kommunikative Dimension expressiven S. 198 Verhaltens 5.3 Hermeneutische Aspekte einer expressiven Theorie der Erfahrung S. 212 Literaturnachweis S. 233 Lebenslauf S. 240 Erklärung S. 242
Die vorliegende Studie richtet ihr Augenmerk auf die Diagnostik bzw. den Nachweis der Masern-Immunität. Es werden zwei anerkannte Testmethoden miteinander verglichen. Dabei geht es um den Masern-Virus-Neutralisationstest (NT) als „Goldstandard“ der Diagnostik und den Anti-Masern-Virus-IgG-Enzymimmunoassay (EIA). Eine Korrelationsuntersuchung wurde anhand von 199 Proben eines ausgewählten Patientenkollektivs und von 437 Plasmapoolproben durchgeführt. Dabei wiesen beide Kollektive deutliche Unterschiede bezüglich der Korrelation zwischen Masern-Virus-Neutralisationstest und Anti-Masern-Virus-IgG-Enzymimmunoassay auf. Die 199 Patientenseren zeigten einen höheren Korrelationskoeffizient von rho=0,86 als die Daten der insgesamt 437 Plasmapoolproben rho=0,56. Obwohl die Ergebnisse der beiden Testverfahren positiv miteinander korrelieren, ist eine eindeutige Zuordnung der Werte nicht möglich. Nach Errechnung der Inter-Rater-Reliabilität, die eine gute Übereinstimmung bei den Daten des Patientenkollektivs aufwies, wird deutlich dass eine Unterscheidung zwischen qualitativer und quantitativer Auswertung sinnvoll ist. Außerdem wurde zusätzlich noch eine computergestützte epidemiologische Untersuchung von insgesamt 1.717 Masern-IgG Befunden des Instituts für Medizinische Virologie Frankfurt aus dem Zeitraum vom 01.01.2001 bis zum 30.11.2004 durchgeführt. Die Ergebnisse des Enzymimmunoassays wurden zur Ermittlung der altersspezifischen durchschnittlichen Anti-Masern-Virus-IgG-Titer, der Masern-Antikörper-Prävalenz sowie der Gesamtschutzraten herangezogen und spiegeln die Masern-Immunität im Raum Rhein-Main wider.
Bei dieser Arbeit handelt es sich um eine retrospektive, klinische Studie, die die Bedeutung prognostischer Faktoren beim Morbus Hodgkin behandelt. Das Patientenkollekiv umfasst 136 Patienten, die an Morbus Hodgkin erkrankt sind. Mittels der bisher verwendeten und damals etablierten Risikofaktoren und der Stadienklassifikation nach Ann Arbor erfolgte eine prognostische Einteilung, anhand deren das jeweilige Chemotherapieprotokoll festgelegt worden ist. Zunächst wurden die Patienten anhand ihrer Risikofaktoren in zwei Gruppen untergliedert, die prognostisch günstigere, EBOEP I-Gruppe und die prognostisch ungünstigere EBOEP II-Gruppe. Nach Einführung des EEP-Protokolls wurde eine dritte Patientengruppe gebildet, die sich, genau wie die EBOEP I-Gruppe, in einem günstigen Stadium befand und nun nach dem EEP-Schema behandelt wurde. Der Vergleich der prognostischen Einteilung nach den Risikofaktoren mit dem neu entwickelten prognostischen Index nach Hasenclever et. al führte zu einem überraschenden Resultat. Nach der alten Einteilung anhand der Risikofaktoren zeigen beide EBOEP-Gruppen nahezu gleiche Ergebnisse mit 2,16 und 2,59 Risikofaktoren pro Patient für EBOEP I und EBEOP II. Die EEP-Patienten haben ein günstigeres Ergebnis mit 1,17 Risikofaktoren pro Patient. Verwendet man den neuen geprüften Prognostischen Index zur Einteilung derselben Patienten, erhält man andere Werte. Hierbei zeigen die Patienten der EBOEP I- und der EEP-Gruppe ähnliche prognostische Eigenschaften mit einem prognostischen Index pro Patient mit 1,48 bzw. 1,43 für die jeweiligen Gruppen. Betrachtet man sich nun das rezidivfreie Überleben nach 5 Jahren erkennt man deutlich schlechtere Ergebnisse der EEP- im Gegensatz zur EBOEP I-Gruppe. Auch die Resultate der Überlebenswahrscheinlichkeit nach 5 Jahren ist für das EEP-Patientenkollektiv ungünstiger. Dies bedeutet, dass die vermeintlich prognostisch günstigere Patientengruppe schlechtere posttherapeutische Ergebnisse zeigt. Der Grund dafür liegt darin, dass anhand der Einteilung nach den alten Risikofaktoren eine günstige Prognose erwartet worden ist und die Patienten eine weniger intensive Chemotherapie erhielten. Nach dem neuen prognostischen Index jedoch zeigten die Patienten der EEP-und der EBOEP I-Gruppe kaum Unterschiede. Die Bedeutung prognostischer Faktoren liegt darin, eine adäquate prognostische Einteilung treffen zu können, um die entsprechenden, der Krankheit angepassten, Therapiekonzepte anzuwenden. Weniger intensive Chemotherapien, die die Gefahren einer Zytostatika - bedingten Leukämie oder das Auftreten von Zweittumoren reduzieren, sind allerdings erstrebenswert für die Patientenkollektive mit einer gesicherten günstigen Prognose, die auch mit dieser geringer dosierten Therapie zuverlässig geheilt werden können.
Edmund Weber : im Ruhestand ; [evangelischer Theologe an der Universität Frankfurt, geb. 1939]
(2005)
Sammeln aus Leidenschaft und Forschen aus Passion : das Frobenius-Institut an der Universität
(2005)
Die Afrika-Sammlung der Universitätsbibliothek Johann Christian Senckenberg ist im deutschsprachigen Raum hinsichtlich der Breite der betreuten Fächer und Länder einmalig. Ihre Größe und Geschlossenheit machen sie zu einer der ersten Anlaufstellen für WissenschaftlerInnen zum Raum Afrika.