Universitätspublikationen
Refine
Year of publication
Document Type
- Part of Periodical (2867)
- Article (2263)
- Contribution to a Periodical (2161)
- Book (1979)
- Doctoral Thesis (1725)
- Review (926)
- Report (608)
- Working Paper (440)
- Part of a Book (196)
- Conference Proceeding (176)
Language
- German (13875) (remove)
Keywords
- Deutschland (99)
- Financial Institutions (43)
- Forschung (40)
- Ausstellung (39)
- Islamischer Staat (39)
- Digitalisierung (38)
- Frankfurt am Main (36)
- Terrorismus (36)
- Frankfurt <Main> / Universität (35)
- USA (34)
Institute
- Präsidium (5008)
- Medizin (1479)
- Gesellschaftswissenschaften (1062)
- Rechtswissenschaft (742)
- Neuere Philologien (650)
- Wirtschaftswissenschaften (639)
- Geschichtswissenschaften (630)
- Biochemie und Chemie (542)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (523)
- Kulturwissenschaften (465)
Heparine sind die am häufigsten verwendeten Medikamente zur Kontrolle der Blutgerinnung. In hoher Dosierung werden sie in der Herzchirurgie eingesetzt, um Blutgerinnseln während einer Operation vorzubeugen. Ein am Institut für Biophysik entwickeltes Messverfahren erlaubt eine direkte und schnelle Messung des Heparinspiegels während des Eingriffs.
Wissenschaftler vom Exzellenzcluster »Makromolekulare Komplexe« der Goethe-Universität haben in Zusammenarbeit mit der Universität Freiburg die Architektur des größten Proteinkomplexes der zellulären Atmungskette aufgeklärt. Sie entdeckten einen bisher unbekannten Mechanismus der nergieumwandlung in diesem molekularen Komplex. Der Mechanismus ist notwendig, damit die Zelle die in der Nahrung gespeicherte Energie nutzen kann.
Ein Mikrokosmos sozialer Kontraste : mit soziologischem Blick durch das Frankfurter Bahnhofsviertel
(2010)
Das Frankfurter Bahnhofsviertel genießt einen überregionalen Ruf. Es ist sowohl als Vergnügungsmeile und Rotlichtbezirk, als auch wegen der öffentlichen Sichtbarkeit abweichenden Verhaltens bekannt – oder vielmehr berüchtigt. Bei Tag ist von dem pulsierenden Leben, das sich abends zwischen Hauptbahnhof und Schauspielhaus, zwischen Gründerzeit vil len und Bankhochhäusern abspielt, kaum etwas zu erahnen. Soziale Tatsachen wie die Unterbevölkerung des Stadtteils, die gezielte Ansiedlung von andernorts unerwünschten Branchen und Dienstleistungen, die Koexistenz verschiedener Kulturen stehen auf den ersten Blick erst recht außerhalb der Wahrnehmung. Dagegen fallen diejenigen Phänomene, die augenscheinlich den Bruch zwischen der »Normalität« und der Abweichung kennzeichnen, umso stärker ins Auge. Das gilt besonders für das Prostitutionsmilieu und die lokale Drogenszene.
Der Sport verlässt seine traditionellen Räume. Fest um- und begrenzte Territorien der Turnhalle, des Fußballplatzes oder des Leichtathletikstadions werden in vielen Trendsportarten ersetzt durch die Grenzenlosigkeit sowohl des Naturraums als auch des städtischen Raums. Jüngstes und vielleicht spektakulärstes Beispiel für die Urbanisierung des Sports ist eine aus Frankreich stammende Bewegungskunst mit dem Namen »Le Parkour«.
Drei Projekte der Goethe-Universität wurden in der dritten Ausschreibung der Landes-Offensive zur Entwicklung Wissenschaftlich-ökonomischer Exzellenz (LOEWE) zur Förderung bewilligt: Die LOEWE-Schwerpunkte »Neuronale Koordination« und »Digital Humanities« (Digitalisierung und Verfügbarmachung geisteswissenschaftlicher Forschungsinhalte) sowie die Gründung des LOEWE-Zentrums »Gen- und Zelltherapie«. Damit stehen den Wissenschaftlern der Goethe-Universität und ihren Kooperationspartnern in den kommenden drei Jahren 24,3 Millionen Euro für ihre Forschung zur Verfügung.
Die Autoren der Frankfurter Schule haben kilometerweise Gedrucktes hinterlassen, vieles davon ist inzwischen in Buchform erschienen und bestens dokumentiert. Aber Max Horkheimer, Theodor W. Adorno, Alexander Mitscherlich und die übrigen Mitstreiter nutzten auch die Chance, mit ihren Vorstellungen zur Philosophie und zur Gestaltung der jungen Demokratie in Deutschland im öffentlichen Diskurs präsent zu sein. Sie waren Meister des gesprochenen Wortes, oft im Radio vernehmbar, in Zeiten, als die lange Form im Hörfunk gepflegt wurde und noch keine belanglosen Talkshows die Medienwelt regierten. Adornos eigenwillige Diktion, allzu gern von den Adorniten in den 1970er und 1980er Jahren imitiert, Horkheimers schwäbischer Tonfall – all das lässt sich wiederfinden in den historischen Tondokumenten der Frankfurter Schule.
Wenn am 30. April 2011 der beschränkte Arbeitsmarkt für Personen aus den neuen EU-Beitrittsländern aufgehoben wird, wird dies auch neue Freiheiten für die etwa 100 000 illegal beschäftigten Haushaltshilfen aus Osteuropa bedeuten, die zurzeit alte Menschen in Deutschland betreuen. Vermutlich werden Privathaushalte als Arbeitsplatz deutlich unattraktiver gegenüber Tätigkeiten in der Gastronomie und im Einzelhandel. Frankreich bekommt diese Situation besser in den Griff, wie die ersten Ergebnisse eines EU-Projekts zeigen, das von Wissenschaftlern des Instituts für Wirtschaft, Arbeit und Kultur (IWAK) koordiniert wird.
Martin Möller, Professor für Algebra und Geometrie an der Goethe-Universität, erhält in der dritten Ausschreibungsrunde des European Research Council (ERC) einen »Starting Independent Researcher Grant«. Mit dem 2007 erstmals ausgeschriebenen Programm der ERC-Grants will die Europäische Union (EU) europaweit kreative Wissenschaftler und zukunftsweisende Projekte fördern. Für den Bereich »Physical Sciences and Engineering « waren 1205 Bewerbungen aus der ganzen Welt eingegangen, 2873 für die Ausschreibung insgesamt. Alleiniges Kriterium bei der Begutachtung der Anträge ist wissenschaftliche Exzellenz. Mit den vom ERC bewilligten Mitteln in Höhe von einer Million Euro für die nächsten fünf Jahre will Möller seine Forschergruppe um vier Mitarbeiter erweitern.
Drei Jahre lang hat die Deutsche Forschungsgemeinschaft die Erschließung und Digitalisierung des ethnografischen Bildarchivs und des Felsbildarchivs des Frobenius-Instituts an der Goethe-Universität mit über 500 000 Euro gefördert. Seit März ist das Ergebnis zu besichtigen. Die Bilddatenbank des Frobenius-Instituts ist online frei zugänglich unter der URL: http://bildarchiv.frobenius-katalog.de/
Immer auf den ersten Rängen : Leibniz-Preis für den Frankfurter Volkswirtschaftler Roman Inderst
(2010)
Wenn es um Superlative geht, dann steht der 40-jährige Prof. Roman Inderst immer ganz oben auf dem Treppchen: jung und schon auf den ersten Rängen unter den Top Ten der europäischen Wirtschaftswissenschaftler. Und am 15. März wurde er auch noch als jüngster unter den zehn Preisträgern mit dem wichtigsten deutschen Forschungspreis, dem mit 2,5 Millionen Euro dotierten Gottfried Wilhelm Leibniz-Preis 2010, ausgezeichnet.
Eisenhaltige kurze Nervenäste im Oberschnabel dienen offensichtlich ganz unterschiedlichen Vogelarten dazu, die Stärke des Erdmagnetfeldes zu messen und nicht nur seine Richtung wie ein Kompass zu bestimmen. Was die Frankfurter Neurobiologen Dr. Gerta Fleissner und ihr Mann Prof. Günther Fleissner bereits vor einigen Jahren bei Brieftauben entdeckten, können sie jetzt auch für andere Vogelarten belegen.
Plattformen für Social Communities im Internet, wie Facebook, StudiVZ und XING, haben in den vergangenen Jahren rasant an Popularität gewonnen. Auf ihnen versammeln sich bereits heute Millionen von Nutzern weltweit. Sie verbinden sich über virtuelle Freundeslisten und tauschen sich über gemeinsame Interessen und Aktivitäten aus. Immer häufger werden dazu auch mobile Endgeräte wie Handys verwendet, erlauben diese doch ständig in Kontakt mit der Community zu bleiben. Allerdings wollen viele Nutzer längst nicht jedem Mitglied einer Community alles preisgeben. Doch wie lässt sich die Privatsphäre in solchen Communities besser schützen? Dieser Frage geht das Forschungsprojekt PICOS nach.
Mit Kuppel und Minarett? Häufig wird die Frage nach der Form einer Moschee als Stellvertreterfrage nach der Akzeptanz des Islam wahrgenommen. Doch könnten offene Diskussionen über die Gestaltung neuer Moscheen auch einen Weg zur funktionierenden Zivilgesellschaft darstellen, ohne dass Muslime und Nichtmuslime ihr eigenes Profil aufgeben müssen.
Echoortende Fledermäuse verfügen über ein hochauflösendes Gehör. Sie können anhand einer geringen Zeitverzögerung zwischen ausgesendetem Echoortungsruf und dem Echo die Entfernung von Objekten bestimmen. Je nach Spezies und deren spezifischer Ortungsstrategie gibt es unterschiedliche Typen von Ortungslauten. Die meisten Fledermäuse verwenden frequenzmodulierte (FM) Ortungssignale und zählen zu den FM-Fledermäusen. CF-FM-Fledermäuse verwenden dagegen zusätzlich zu FM-Komponenten konstantfrequente Signalelemente (CF-FM). Diese sind besonders zur Detektion flügelschlagender Beuteinsekten in dichter Vegetation von Vorteil. Im auditorischen Kortex (AC) von Fledermäusen existieren so genannte FM-FM-Neurone, die auf die Auswertung der Verzögerungszeiten zwischen Rufaussendung (FM-Ruf) und Echo (FM-Echo) spezialisiert sind. Eine Besonderheit von FM-FM-Neuronen ist, dass sie bei CF-FM-Fledermäusen systematisch, entsprechend ihrer bevorzugten Echoverzögerungen, im AC angeordnet sind. Somit sind die FM-FM-Neurone chronotop entlang einer rostro-kaudalen Achse organisiert. Solche FM-FM-Neurone wurden bislang auch in FM-Fledermäusen nachgewiesen, jedoch waren sie nicht chronotop organisiert. Ein Ziel dieser Promotionsarbeit war es, FM-FM-Neurone bei der FM-Fledermaus Carollia perspicillata hinsichtlich ihrer Eigenschaften und ihrer räumlichen Anordnung im AC zu untersuchen. Die Befunde der vorliegenden Studie an C. perspicillata zeigen, dass alle untersuchten Neurone im dorsalen AC sowohl auf hochfrequente Reintöne als auch auf FM-FM-Stimulation reagierten. Die Echoverzögerungen, auf welche die Neurone im Areal reagierten, lagen zwischen 1 und 32 ms, was einer Distanz zwischen Fledermaus und Objekt von 16 cm bis 5,3 m entspricht. Überraschenderweise waren die kortikalen FM-FM-Neurone bei C. perspicillata chronotop organisiert, ähnlich wie bei insektenfressenden CF-FM-Fledermäusen. Warum eine chronotope Anordnung von FM-FM-Neuronen im AC bei CF-FM-Fledermäusen von Nutzen sein kann, ist nicht geklärt. Bislang wurde vermutet, dass eine systematische Anordnung die Zeitverarbeitungsprozesse optimiert und vor allem beim Insektenjagen in dichter Vegetation vorteilhaft sein könnte. Der vorliegende Befund ist außergewöhnlich, da er zeigt, dass auch bei der überwiegend frugivoren Fledermaus C. perspicillata FM-FM-Neurone chronotop angeordnet sind, und damit verdeutlicht, dass der funktionelle Rückschluss hinsichtlich des Beutefangs neu diskutiert werden muss. Neben der Charakterisierung von FM-FM-Neuronen bei adulten C. perspicillata war Ziel der vorliegenden Arbeit, die postnatale Entwicklung des AC im Hinblick auf die Frequenzrepräsentation zu untersuchen. Während der Entwicklung von C. perspicillata wurden drei wichtige Veränderungen festgestellt: (1) Das Audiogramm zeigt, dass der Hörbereich von Neugeborenen charakteristische Frequenzen (CF) zwischen 15 und 80 kHz aufweist. Dieser Frequenzbereich entspricht etwa 72% des Hörbereichs von Adulten. Während der ersten vier postnatalen Entwicklungswochen findet eine Frequenzverschiebung um etwa 0,4 Oktaven hin zu höheren Frequenzen statt. Insgesamt erhöhen sich die CF der Neurone im dorsalen AC von Neugeborenen bis hin zu Adulten um 30 kHz. (2) Die Sensitivität der hochfrequenten Neurone nimmt während der ersten postnatalen Woche um 15 dB zu und bleibt ab dieser Entwicklungsphase relativ konstant. (3) Die Sensitivität der tieffrequenten Neurone im ventralen AC nimmt im Laufe der Entwicklung um etwa 30 dB zu. Die CF der tieffrequenten Neurone sinken unerwartet während der postnatalen Entwicklung von Juvenilen zu Adulten um etwa 10 kHz. Diese Ergebnisse könnten auf eine bidirektionale Ausreifung der Cochlea hinweisen. Eine dritte ontogenetische Teilstudie der vorliegenden Arbeit befasste sich erstmalig mit den FM-FM-Neuronen und deren Organisation während der postnatalen Entwicklung. Die Befunde zeigen, dass während der Ontogenese drei wichtige Modifikationen auftreten: (1) Bereits bei Neugeborenen liegt der Anteil an FM-FM-Neuronen bei 21% im Vergleich zur Aktivität auf Reintöne. Dieser Anteil nimmt in der ersten Entwicklungswoche auf 56% zu und steigt einhergehend mit der beginnenden Flugtüchtigkeit der Tiere in der dritten Entwicklungswoche abrupt auf 84%. (2) Bei Neugeborenen werden im Vergleich zu älteren Entwicklungsphasen ausschließlich Entfernungen zwischen Fledermaus und Objekt von 50 cm bis 2,5 m auf neuronaler Ebene mittels FM-FM-Neurone codiert. Bereits nach der ersten postnatalen Woche sind die CD ähnlich verteilt wie bei adulten Tieren. Die Sensitivität an den CD nimmt während der Entwicklung vom Neugeborenen zum Adulten um etwa 20 dB zu. (3) Bereits bei Neugeborenen sind die FM-FM-Neurone im dorsalen AC chronotop angeordnet und über alle Altersgruppen hinweg bleibt die Chronotopie bestehen. Die Befunde der vorliegenden Studie zeigen erstmalig, dass die kortikalen Zeitverarbeitungsareale und die Chronotopie pränatal angelegt werden.
Schlangengifte enthalten einen ganzen Arzneischrank voller hochwirksamer Stoffe, die binnen kurzer Zeit zu Schock, Lähmung oder unstillbaren Blutungen führen können. Forscher interessieren sich vor allem für Verbindungen, welche die Blutgerinnung hemmen, denn sie könnten pharmakologisch interessante Leitstrukturen für neue Wirkstoffe sein, die das Risiko eines Herzinfarkts, Gehirnschlags und anderer Thrombosen mindern.
Enthält die 2 Vorträge: Die Entwicklung der Einkommensverteilung und der Einkommensarmut in den alten Bundesländern von 1962 bis 1988 / Irene Becker, Universität Frankfurt/Main Vergleichende Analyse der Einkommensverteilung und der Einkommensarmut in den alten und neuen Bundesländern von 1990 bis 1995 / Richard Hauser, Universität Frankfurt a.M.
Die Untersuchungen auf der Basis der Einkommens- und Verbrauchs stichproben haben ergeben, daß sich hinter der für die "alte" Bundesrepublik festgestellten weitgehenden Stabilität der Verteilung der Nettoäquivalenzeinkommen deutliche Veränderungen auf den vorgelagerten Stufen des Verteilungsprozesses verbergen. Bei den individuellen Erwerbseinkommen sowie bei den individuellen Faktoreinkommen (nur Bezieher) sind zwischen 1973 und 1988 die hier einbezogenen aggregierten Ungleichheitsmaße zwar kaum gestiegen; Kernel Density-Schätzungen zeigen aber einen leichten Polarisierungstrend der bimodalen Verteilung, da die Dichte in den Randbereichen der Verteilung zugenommen hat und das Dichtetal zwischen den beiden Gipfeln sich gesenkt hat. Unter Berücksichtigung des Haushaltszusammenhangs - durch Zusammenfassung individueller Faktoreinkommen auf Haushaltsebene und Gewichtung mit einer Äquivalenzskala - erweisen sich die Verteilungsänderungen als noch gravierender. Die aggregierten Ungleichheitsmaße sind stark gestiegen, und das Verhältnis der beiden Modi der zweigipfligen Verteilung hat sich umgekehrt: lag 1973 der erste Gipfel im Bereich der geringfügigen Faktoräquivalenzeinkommen noch deutlich unter dem zweiten, knapp unterhalb des Durchschnitts gelegenen Gipfel, so war 1988 der erste Gipfel deutlich höher als der zweite. Die relative Häufigkeit marginaler Faktoräquivalenzeinkommen hat im Zeitablauf also eindeutig zugenommen, ebenso wie die im oberen Einkommensbereich. Dennoch kann man von Polarisierung nur in einem weiteren Sinn sprechen, da das Dichtetal zwischen den Modi 1988 höher als 1973 liegt. Es mag beruhigend wirken, daß - zumindest in der Zeit vor der Wiedervereinigung - das Abgaben- und Transfersystem die zunehmende Disparität der Faktoreinkommensverteilung insoweit kompensieren konnte, als die relative Häufigkeit des Niedrigeinkommensbereichs - hier abgegrenzt mit 50% des durchschnittlichen Nettoäquivalenzeinkommens - vergleichsweise mäßig zugenommen hat. Dieser Eindruck ist allerdings im Hinblick auf die eingangs erwähnten Einschränkungen der Datenbasis zu relativieren. Die unzureichende Erfassung des oberen und des unteren Randbereichs der Einkommensverteilung läßt vermuten, daß der tatsächliche Trend zunehmender Ungleichheit und Polarisierung durch unsere Analysen unterschätzt wird.
Die Analyse von Entwicklungstendenzen der personellen Einkommensverteilung in der Bundesrepublik Deutschland hat ein hohes Maß an Stabilität ergeben. Trotz vielfältiger gesamtwirtschaftlicher und sozialer Wandlungsprozesse während des einbezogenen Vierteljahrhunderts (1962/63 bis 1988) deuten aggregierte Verteilungsmaße auf der Basis von Mikrodaten der Einkommens- und Verbrauchsstichproben (EVS) sehr mäßige Veränderungen der Verteilung der Nettoäquivalenzeinkommen an. Der sich zunächst abzeichnende leichte Trend zu verminderter Ungleichverteilung kehrte sich im letzten Jahrzehnt des Beobachtungszeitraums wieder um, so daß die meisten Verteilungsindikatoren 1988 wieder nahe den Werten zu Beginn der siebziger Jahre lagen. Zwischen 1978 und 1983 scheint sich insbesondere die Situation der untersten Schichten verschlechtert zu haben, wie die Entwicklung des Atkinson-Index bei hoher Ungleichheitsaversion, des Theil-Index und der Armutsquote - bei einer relativen Armutsgrenze von 50% des durchschnittlichen Nettoäquivalenzeinkommens - belegen. Ein Vergleich der Verteilungsentwicklung auf verschiedenen Stufen des Verteilungsprozesses zeigt, daß sich die primäre und die sekundäre Verteilung tendenziell auseinanderentwickelt haben. Beispielsweise ist der Gini-Koeffizient der Faktoräquivalenzeinkommen im Untersuchungszeitraum um 7% gestiegen, der der Nettoäquivalenzeinkommen um 11% gesunken. Das soziale Sicherungssystem scheint sich im Untersuchungszeitraum also im großen und ganzen bewährt zu haben. Dennoch deuten sich neuerdings wieder zunehmende Verteilungsprobleme und sozialpolitische Problemfelder an. Abgesehen von dem allgemeinen Anstieg der Armutsquote in den achtziger Jahren und der nach wie vor ungünstigen Position der (vollständigen) Familien mit mehreren Kindern zeigt sich insbesondere bei den Alleinerziehenden eine alarmierende Entwicklung. Ihre durchschnittliche Wohlstandsposition erreichte 1988 nur noch ca. vier Fünftel (Alleinerziehende mit einem Kind) bzw. drei Fünftel (Alleinerziehende mit mehreren Kindern) des durchschnittlichen Nettoäquivalenzeinkommens insgesamt. Die relativen Positionen der anderen Haushalts- bzw. Familientypen haben sich im Zeitablauf tendenziell eher dem Gesamtdurchschnitt angenähert, so daß eine Dekomposition von Verteilungsindikatoren eine eindeutige und anhaltende Dominanz der Intra-Gruppen-Ungleichheit gegenüber der Ungleichverteilung zwischen den Haushaltstypen ergibt (ca. 90% der insgesamt gemessenen Ungleichheit). Auch in der Differenzierung nach der sozialen Stellung des Haushaltsvorstands überwiegt die Intra-Gruppen-Ungleichheit die Inter-Gruppen-Komponente der Einkommensungleichverteilung um ein Vielfaches, und zwar in deutlich zunehmendem Maß. Eine zielgerichtete Sozial- und Verteilungspolitik sollte also nicht an traditionellen Kategorien bzw. Schichtmerkmalen - z.B. Arbeiterschicht versus Unternehmerschicht - anknüpfen, sondern die komplexen Einflußfaktoren, die die materielle Situation von Haushalten determinieren, und damit die Heterogenität von eindimensional abgegrenzten Gruppen berücksichtigen. Darüber hinaus hat die Untersuchung auf der Basis der EVS-Datenbank gezeigt, daß sich hinter einer insgesamt recht stabilen Einkommensverteilung vielfältige, sich kompensierende Einzelentwicklungen verbergen, die in der Sozial- und Familienpolitik beachtet werden sollten.
Das Niedrigeinkommenssegment steht im Zentrum der Kontroversen um eine Reform des Sozialstaats. Die Kenntnis seiner soziodemographischen Zusammensetzung ist daher unabdingbar, um in der betreffenden Diskussion gehaltvoll Position beziehen zu können. Besonders interessieren in diesem Zusammenhang Zeitvergleiche. In diesem Sinne wird in der vorliegenden Studie die Veränderung der Struktur des Niedrigeinkommensbereiches in der Bundesrepublik anhand einer Abfolge mehrerer Querschnitte, welche die Jahre 1962/63 bis 1988 umfaßt, analysiert. Dem Niedrigeinkommensbereich werden - in Anlehnung an neuere Ergebnisse in der Literatur über „prekären Wohlstand“ und über Abstiegsrisiken - diejenigen Personen zugerechnet, die nicht mehr als 80 v. H. des durchschnittlichen Nettoäquivalenzeinkommens zur Verfügung haben. Zur vertieften Analyse wird der Niedrigeinkommensbereich nochmals in vier Teilsegmente unterteilt. Entsprechend den relativen Besetzungshäufigkeiten zeigt sich beim Vergleich mit dem oberen Einkommensbereich für spezifische Personengruppen eine Überrepräsentation im Niedrigeinkommensbereich bzw. in seinen vier Teilsegmenten. Hierbei ergeben sich im Zeitablauf einige aufschlußreiche Trends. So erhöhte sich von 1962 bis 1988 beispielsweise für Alleinstehende, für Personen in Alleinerziehenden-, in Nichterwerbstätigenhaushalten sowie für Personen in Haushalten mit einer weiblichen Bezugsperson der Grad der Überrepräsentation im Niedrigeinkommensbereich. Gleiches gilt für Personen in Haushalten mit einem hohen Mietanteil am Haushaltsnettoeinkommen bzw. generell für Personen in Nichteigentümerhaushalten. Demgegenüber verringerte sich insbesondere für Personen im Haushaltstyp einer vollständigen Familie mit vier Kindern oder für Personen in Landwirte- und Arbeiterhaushalten von 1962 bis 1988 das Ausmaß der Überrepräsentation im Niedrigeinkommenssegment.
Nach den Worten des Bundesverfassungsgerichts ist die Gewaltenteilung ein tragendes Organisationsprinzip des Grundgesetzes (BVerfGE 3, S. 225 ff. [247]). Keine Gewalt darf ein von der Verfassung nicht vorgesehenes Übergewicht über die andere Gewalt erhalten (BVerfGE 9, S. 268 ff. [279]). Wo in der deutschen Verfassungswirklichkeit im Verhältnis zwischen Exekutive und Judikative solche Organisationsstrukturen von zureichender Wirkungskraft zu finden sind, stellt das Bundesverfassungsgericht nicht klar. Die allein mit rechtswissenschaftlichen Instrumentarien nicht zu klärende Frage, ob die Bundesrepublik Deutschland bereits Organisationsstrukturen besitzt, die ein psychosoziales Übergewicht der Exekutive über die Rechtsprechung ausschließen, begegnet bei näherer Betrachtung der Verfassungswirklichkeit in Deutschland (Kapitel III., Schwerpunkt der Dissertation) erheblichen Zweifeln. Die nach dem Ende des 2. Weltkriegs vorgefundene und bis heute in ihrer Grundstruktur unveränderte Verwaltung der Dritten Gewalt durch die Exekutive entspricht nicht den Zielen des Gewaltenteilungsprinzips. Ein Prinzip ist eine Einsicht, ein Ziel und eine Handlungsregel, die methodisch am Anfang eines theoretischen Aufbaus oder Systems von Handlungsorientierungen steht. Montesquieu umschreibt die seinem Gewaltenteilungsprinzip zu Grunde liegende anthropologische Einsicht mit den Worten: „Eine ewige Erfahrung lehrt jedoch, dass jeder Mensch, der Macht hat, dazu getrieben wird, sie zu missbrauchen. Er geht immer weiter, bis er an Grenzen stößt. Wer hätte das gedacht: Sogar die Tugend hat Grenzen nötig“. Die deutsche Verfassungswirklichkeit der Rechtsprechung kennt keine Schutzgrenzen gegenüber der Exekutive. Es gibt keine Organisationsstrukturen, die subtile Übergriffe der vollziehenden Gewalt auf die Rechtsprechung von vornherein objektiv unmöglich machten. Deutschland begnügt sich mit Appellen an die mit der Justizverwaltung betrauten Regierungsmitglieder (i.d.R. Justizminister) und an die ihnen nachgeordneten Staatsorgane (z.B. Gerichtspräsidenten); sie hofft auf deren Rechtstreue und Augenmaß. Deutschland folgt dem Hoffnungsprinzip, nicht dem Gewaltenteilungsprinzip. Das im Grundgesetz festgeschriebene Prinzip der Gewaltenteilung organisatorisch umzusetzen, ist ein Ziel und eine Handlungsregel und damit eine vom Grundgesetz gestellte Aufgabe (a.M. BVerfGE 55, S. 372 ff. [388]). Die der Dreiteilung der Staatsgewalten (Art. 20 II 2 GG) vorausgehende anthropologische Einsicht Montesquieus ist überdies einer der bei der Auslegung des Grundgesetzes anzulegenden Maßstäbe. Der Wortlaut des Art. 92 erster Halbsatz GG ist die an die Spitze des Abschnitts „IX. Die Rechtsprechung“ gestellte Bestätigung der Grundentscheidung des Art. 20 II 2 GG für die Gewaltenteilung. Er bringt den Willen des Grundgesetzes zum Ausdruck, dass in der Verfassungswirklichkeit Deutschlands die rechtsprechende Gewalt in einer organisatorisch gleich wirkungsvollen Weise den Richtern anvertraut sein möge wie die gesetzgebende Gewalt den Parlamentsabgeordneten.
Das Ziel dieser Studie war die Etablierung von Grenzwerten für die bronchiale Methacholinprovokation durch Vergleich des Aerosol Provokation Systems (APS-SC) mit einem ATS Standard (five-breath dosimeter method, SDM). Unsere Ergebnisse zeigen, dass die APS-SC Methode unter Verwendung eines Kurzprotokolls und des Systems der Firma Cardinal Health eine sichere, schnelle und verlässliche Methode der bronchialen MCP darstellt. Im Schnitt erspart dieses Verfahren acht Minuten gegenüber der klassischen SDM gemäß dem von der ATS empfohlenen „short five breath dosimeter protocol“. Zudem entfallen in der Vorbereitung das Herstellen und die Lagerung mehrerer unterschiedlich konzentrierter Methacholinlösungen; während der Untersuchung existiert daher auch kein Verwechslungsrisiko. Der Test selbst ist für Untersucher und Patient weniger belastend. Die Verwendung einer Konzentration von 16,00 mg/ml für die Methacholin-Testlösung stellt einen guten Mittelweg zwischen akzeptablen Inhalationszeiten innerhalb der Stufen und einer nicht zu aggressiven Konzentration dar, mit der vom Anfang eines Tests bis zu seinem Ende gearbeitet werden kann. Zwischen den Kategorien der BHR für die SDM- und die APS-SC Methode besteht ein enger Zusammenhang. Als Grenzwert für die Annahme einer BHR – definiert als diejenige Methacholindosis bzw. -konzentration, die zu einem Abfall der FEV1 um 20 % vom Ausgangswert führt – stimmt der bestehende und von der ATS publizierte Grenzwert von 8,00 mg/ml am besten mit einer Dosis von 1,00 mg Methacholin in der APS-SC Methode überein.
Akute Hochrisiko-Leukämien oder deren Rezidive, chronische Leukämien, Myelodysplastische Syndrome und Hodgkin- und Non-Hodgkin-Lymphome sind Indikationen für hämatopoetische Stammzelltransplantationen. Das Verfahren ist mit einer hohen Therapie-assoziierten Morbidität und Mortalität (TRM), die bei 5-40% liegt, assoziiert. Hauptprobleme sind dabei neben Infektionen die akute und chronische Transplantatreaktion (Graft-versus-Host-Erkrankung, GvHD). Die TRM variiert je nach Grunderkrankung, Spender und Allgemeinzustand des Patienten. Um Risikofaktoren für die TRM zu identifizieren, analysierten wir in einer retrospektiven Studie 205 allogene pädiatrische SZT in 4 Kliniken, von denen jeweils 2 Kliniken ein hohes bzw. niedriges Risikoprofil hinsichtlich der TRM hatten. Wir überprüften die Anwendbarkeit und Validität des von Matthes-Martin et al. entwickelten Risikoscores (TRMScore), der aus drei Risiko-Punkten Patienten-spezifische (Alter, Grunderkrankung) und Therapie-spezifische (Spender) Charakteristika miteinander kombiniert. Dieser Score teilt die Patienten in 4 TRM–Risikogruppen ein mit einem Score von 0 Punkten (Patient unter 10 Jahren mit HLA-identischen Geschwister als Donor) bis zu 3 Punkten (Patient über 10 Jahren, CR3 und HLA-nicht passenden Spender). Wir modifizierten den TRM-Score von Matthes-Martin et al., indem wir die Patienten mit einem TRM-Score von 0 und 1 in eine erste Gruppe (TRM-Score I) und die Patienten mit dem TRM-Score von 2 und 3 in eine zweite Gruppe zusammen (TRM-Score II) zusammenfassten, und entwickelten den mTRM-Score (modifizierter TRM-Score). Die Indikationen zur SZT waren ALL, AML, CML, Non-Hodgkin-Lymphome, Hodgkin-Lymphome und MDS. Es gab 88 KMT und 115 PBSZT und in 2 Fällen war die Stammzellquelle eine Kombination aus Knochenmark und peripherem Blut. Das Patientenalter lag zwischen 0 und 23 Jahren. Spender waren MSD (26,8%), MRD (1%), MUD (53,2), MMUD (10,2%) und MMRD (8,8). Am LFU lebten 61% der Patienten. Von den 39% der verstorbenen Patienten sind 40% aufgrund eines Rezidivs verstorben und 60% transplantationsassoziiert. Die Gesamt-TRM lag bei 22,4%. Wir teilten transplantationsassoziierte Faktoren in folgende Gruppen ein: Patienten-assoziierte Variablen, Spender-assoziierte, Krankheits-assoziierte, Therapie-assoziierte Variablen und sonstige Variablen. Die logistische Regression zeigte signifikant prognostische Faktoren, die die TRM beeinflussen. Das waren die Klinik (P=0,0045), in der die SZT durchgeführt wurde, das Jahr der SZT (P=0,0457, ab 2001) und der Spendertyp (P=0,0083, kein MSD). Die Diagnose, der Remissionsstatus bei SZT und der TRM-Score waren keine prognostischen Risikofaktoren für die TRM. Bei Anwendung des mTRM-Scores kristallisierte sich dieser als ein Prädiktor für die TRM (P=0,0447) heraus. Ein TRM-Score von I ging mit einer niedrigen TRM-Rate einher. Der mTRM-Score kann aufgrund der Ergebnisse zur Therapieentscheidung herangezogen werden, da er eine Einschätzung der tatsächlichen Überlebenswahrscheinlichkeit für die Patienten möglich macht. Die Klinik als Risikofaktor für die TRM ist nicht alleine durch das Patientenkollektiv und durch die Auswahl des Spendertyps zu erklären. Anhand der 1-Jahres-TRM (23%) von Matthes-Martin et al. errechneten wir die zu erwartende TRM-Rate für unsere Kliniken. Die erwartete TRM wich in Klinik C und Klinik D stark von der beobachteten TRM ab, in Klinik A und Klinik B waren sie annähernd gleich. Ein signifikanter Unterschied bestand nur bei Klinik C mit einem p-Wert von 0,05 bei dem TRM-Score und 0,02 bei dem mTRM-Score. Die Ergebnisse lassen darauf schließen, dass das Outcome der SZT von den Kliniken an sich bzw. deren Therapiemodalitäten beeinflusst wurde.
Im vorliegenden Arbeitspapier werden alternative normative Grundpositionen der Familienpolitik diskutiert und die Entwicklung der relativen Verteilungspositionen von Haushalten unterschiedlicher Größe bzw. von Familien mit und ohne Kinder untersucht. Die empirische Analyse stützt sich zum einen auf veröffentlichte Tabellen des Statistischen Bundesamtes und zum anderen auf eigene Auswertungen der Einkommens- und Verbrauchsstichproben 1973, 1978 und 1983 sowie des Sozio-ökonomischen Panels für einzelne Stichjahre der späteren Periode und insbesondere für die Ausgangssituation und die bisherigen Veränderungen in den neuen Bundesländern. Als Indikator für die Einkommenslage von Personen wird ein Äquivalenzeinkommen in Relation zum jeweiligen Gruppen- oder Gesamtdurchschnitt, die sogenannte Wohlstandsposition, herangezogen. Personen in Haushalten mit drei oder mehr Personen - das sind hauptsächlich Familien mit Kindern - schneiden erwartungsgemäß im Durchschnitt schlechter ab als Personen in kleineren Haushalten. Allerdings sind die Diskrepanzen innerhalb der Gruppen, die überwiegend von Transfers leben, mäßiger als innerhalb der Gruppen mit erwerbstätigem Haushaltsvorstand; anscheinend wirkt der Familienlastenausgleich in den sozial schwächeren Gruppen stärker. Zwischen 1972 und 1992 (Westdeutschland) hat sich die relative Position der größeren Haushalte allerdings tendenziell etwas verschlechtert. Die Verteilungsanalyse auf der Basis der erwähnten Mikrodaten zeigt zudem, daß Familien mit Kindern wesentlich häufiger unterhalb der durchschnittlichen Wohlstandsposition und unterhalb der relativen Armutslinie von 50 % einzuordnen sind als (Ehe-)Paare ohne Kinder. Besonders ungünstig sieht die Situation bei den Alleinerziehenden aus; die Armutsquote dieser Gruppe schwankt zwischen einem Fünftel und einem Viertel. In der ehemaligen DDR scheint die relative Position der Familien mit Kindern überwiegend besser gewesen zu sein; die Strukturen in den neuen Bundesländern haben sich aber bereits denen in Westdeutschland angenähert.
Dieser Beitrag vergleicht mit einheitlicher Methodik die Mobilität des individuellen Bruttoarbeitseinkommens, des Bruttoäquivalenzeinkommens und des Nettoäquivalenzeinkommens in Westdeutschland, Ostdeutschland, Großbritannien, den USA und Ungarn mit Panel-Daten dieser Länder aus dem Zeitraum 1989-1995. Die Mobilität ist in Ostdeutschland bei allen Einkommenskonzepten wesentlich höher als in Westdeutschland, nähert sich aber im Zeitablauf und insbesondere beim Nettoäquivalenzeinkommen dem westdeutschen Niveau an. Die Mobilität des Bruttoäquivalenzeinkommens ist in Westdeutschland größer, die des Nettoäquivalenzeinkommens kleiner als in Großbritannien. Die Mobilität des individuellen Bruttoarbeitseinkommens und des Bruttoäquivalenzeinkommens ist in Westdeutschland höher, die des Nettoäquivalenzeinkommens niedriger als in den USA. Die Mobilität des Nettoäquivalenzeinkommens ist in Ungarn deutlich höher als in Ostdeutschland. Diese Ergebnisse zeigen eine im internationalen Vergleich unerwartet hohe Flexibilität des deutschen Arbeitsmarkts, wobei jedoch die Verweildauer in der Arbeitslosigkeit in Deutschland länger ist als in den USA und Großbritannien, wo viele Arbeitslose schnell in schlecht bezahlte Jobs wechseln. Ferner zeigt sich, daß das Steuer- und Transfersystem in keiner anderen Volkswirtschaft die Mobilität der Bruttoäquivalenzeinkommen stärker reduziert als in Deutschland.
Überarbeitete Version des Arbeitspapiers "The dynamics of labour market participation, unemployment and non-participation in Great Britain, Sweden and Germany" / Wolfgang Strengmann-Kuhn. [Johann-Wolfgang-Goethe-Universität Frankfurt am Main, Fachbereich Wirtschaftswissenschaften, Institut für Volkswirtschaftslehre]
Untersuchung der Konformation und Dynamik von RNA mit Hilfe fluoreszierender Farbstoffmoleküle
(2010)
Die vorliegende Arbeit beschäftigt sich mit der Untersuchung der konformationellen und elektronischen Eigenschaften sowie der Dynamik verschiedener RNA-Systeme. Zur Durchführung dieser Experimente wurde zusätzlich zu bereits vorhandenen statischen und zeitaufgelösten Absorptionsspektrometern im Rahmen dieser Arbeit eine Apparatur zur Messung von Fluoreszenzlebensdauern entwickelt, die durch die integrative Verwendung zweier verschiedener, etablierter Technologien (TCSPC und Aufkonvertierung) über einen weiten Zeitbereich von 9 Größenordnungen (100 fs - 0,1 ms) operiert. Mit diesem Aufbau konnten neben den RNA-Studien wichtige Beiträge zum Verständnis der Isomerisierung eines Retinalproteins, des Transportprozess des Membrantransportproteins TbSMR und der im Infraroten liegenden Fluoreszenz des Radikalkations von Astaxanthin gewonnen werden. Der Schwerpunkt der vorliegenden Arbeit liegt auf der Untersuchung verschiedener RNA-Systeme: So werden die optischen Eigenschaften einer 1-Ethinylpyren-modifzierten RNA-Adeninbase allein und in RNA-Strängen eingebunden untersucht. Statische Fluoreszenzmessungen zeigen einen ausgeprägten Ladungstransfercharakter des Chromophors und eine generell große Wechselwirkung zwischen Ethinylpyren und Adenin, die in einer substanziellen Änderung der optischen Eigenschaften des Pyrens resultiert. Die Untersuchung der schnellen Photodynamik von Pyrenadenin zeigt zudem eine Verringerung der Lebensdauer von Pyren um etwa 2 Größenordnungen. Pyrenadenin zeigt sowohl Fluoreszenz eines neutralen (100-200 ps), als auch eines energetisch tiefer liegenden Ladungstransferzustands (1-2 ns). Die Formationszeit des Ladungstransferzustandes fällt mit steigender Polarität des Lösemittels. Eingebunden in Modell-RNA-Stränge ist Fluoreszenzquantenausbeute des Chromophors ein deutlicher Indikator für seine Interkalation. Nur in der stabileren Umgebung von GC-Basenpaaren ist das Pyren in der Lage, sich dauerhaft innerhalb des Duplex aufzuhalten, während in einer flexibleren AU-Umgebung eine Position außerhalb des RNA-Duplex präferiert wird. Transiente Absorptionsmessungen zeigen, dass die Photophysik des in RNA eingebundenen Pyrenadenins nur kleine Variationen im Vergleich zur Photophysik des Labels allein aufweist. Die deutliche Abnahme der Quantenausbeute des interkalierten Chromophors geht hauptsächlich auf Kosten der langlebigeren Ladungstransferfluoreszenz, so dass interkaliertes Pyren insgesamt schneller in den Grundzustand zurückkehrt als nicht interkaliertes. Mit Hilfe eines doppelt modifizierten Duplex, bei dem sich jeweils ein Farbstoff an einem der beiden Stränge befindet, kann nachgewiesen werden, dass aufgrund von Exzimerwechselwirkungen eine Verschiebung des Fluoreszenzmaximums von 35 nm auftritt. Kurzzeitspektroskopische Messungen zeigen Signale, die als Superposition von Monomeren und Exzimeren interpretiert werden können, wobei die Lebensdauer des letzteren mit 18,5 ns die der Monomerkomponente um ein Vielfaches übertrifft. Ein weiterer Teil dieser Arbeit beschäftigt sich mit einer Studie zur Bindung des fluoreszenten Liganden Tetrazyklin an das Tetrazyklin bindende Aptamer. Hier wird auf Basis verschiedener Mutanten mit Hilfe des TCSPC eine Analyse der Stabilität der Bindetasche sowie mit der Stopped-Flow-Methode eine Beobachtung des Bindungsprozesses durchgeführt. Insgesamt folgt die Bindung des Tetrazyklins an das Aptamer einer zweistufigen Kinetik, deren zweiter Schritt irreversibel ist. Die Bindung läuft, verglichen mit anderen Aptameren, sehr schnell ab. Während die Mutationen von A13 und A50,die direkte Kontakte zum Substrat bilden, nur einen leichten Einfluss auf beide Bindungsschritte ausüben, führt eine Mutation der für die Präformation verantwortlichen Base A9 zu einer Verlangsamung des Bindungsprozesses um mehr als einen Faktor 20 durch eine immens gesteigerten Rückreaktionsrate des ersten Bindungsschritts. Hieraus lässt sich schließen, dass bei fehlender Präformation des Aptamers nur wenige Tetrazyklinmoleküle ein für vollständige Bindung geeignetes Aptamer vorfinden. Die Bindung an A13 und A50 geschieht bereits im ersten Schritt des Bindungsprozesses. Ferner konnte anhand von Lebensdauermessungen gezeigt werden, dass nach dem Wildtyp die Mutante A9G die stabilste Bindetasche aufwies. Das Fehlen eines direkten Kontaktes wirkt sich deutlich stärker aus. Insbesondere führt die Abwesenheit der Fixierung des Gegenions durch A50 zu der instabilsten Bindetasche. Wie in dieser Arbeit gezeigt wird, ist die zeitaufgelöste optische Spektroskopie insbesondere in Verbindung mit fluoreszierenden Molekülen ein ausgezeichnetes Mittel zur Beobachtung von Struktur und Dynamik von RNA. Die Empfindlichkeit von Fluoreszenz auf die Veränderung der Umgebung des Chromophors erlaubt es, Konformationsdynamik und elektronische Konfigurationen in Echtzeit zu beobachten.
Empirische Wohlstandsanalysen können prinzipiell anhand dreier Indikatoren durchgeführt werden: Anhand des Privaten Verbrauchs, anhand des verfügbaren Einkommens oder anhand des Nettovermögens.1 Während es für die Definition der Indikatoren des Privaten Verbrauchs und des verfügbaren Einkommens zumindest einigermaßen akzeptierte internationale Konventionen gibt, ist dies bezüglich der Definition des privaten Vermögens nicht annähernd der Fall. Im Unterschied zu den Volkseinkommensrechnungen sind Volksvermögensrechnungen im internationalen Maßstab deutlich weniger gut ausgebaut. Dies mag damit zusammenhängen, daß bei einer Bestandsgröße wie dem privaten Vermögen Aspekte der Verwertung, Nutz-ung, sozialen Absicherung wie auch der Verleihung von Macht2 intensiver zum Tragen kommen als bei einer Stromgröße wie dem privat verfügbaren Haushaltseinkommen. Aus welchen Bestandteilen sich das Gesamtvermögen zusammenzusetzen hat, ist daher einem heftigeren Diskurs als bei den anderen Wohlstandsindikatoren ausgesetzt. Es herrscht beispielsweise Uneinigkeit darüber, ob das Human- oder das Sozialvermögen sinnvolle Vermögenskomponenten sind. Eine eher negative Einschätzung in diesem Zusammenhang wird üblicherweise damit begründet, daß beide potentiellen Gesamtvermögensbestandteile das Kriterium der interpersonellen Veräußerbarkeit nicht bzw. nur unzureichend erfüllen.1 Auch ist die Forschung vor zum Teil schwer überwindbare Bewertungsprobleme einzelner Vermögenskomponenten gestellt, und zwar stärker als bei den beiden anderen Wohlstandsindikatoren, bei denen zumindest die überwiegende Anzahl an Teilelementen mittels nachvollziehbarer Marktpreise vergleichsweise einfach bewertet werden kann. Hinzu kommt die schlechtere Datenlage hinsichtlich der Erfassung privaten Vermögens im Vergleich zum Privaten Verbrauch bzw. verfügbaren Haushaltseinkommen, was nicht zuletzt auf die - in Befragungen - (noch) größere Sensibilität der Interviewten bezüglich der Beantwortung vermögensbezogener Fragen im Vergleich zu den beiden anderen Wohlstandsindikatoren zurückzuführen ist. Alles in allem bleibt festzuhalten, daß allein die Deskription der Höhe und Verteilung privat gehaltenen Vermögens eine höchst komplexe Aufgabe ist. Es ist daher keineswegs unwahrscheinlich, daß verschiedene Vermögensanalysen selbst auf einer einheitlichen Datengrundlage zu zum Teil entgegengesetzten Aussagen gelangen werden. Diesen letztgenannten Gedanken aufgreifend, werden in der vorliegenden Studie in beispielhafter Form drei auf Basis der Einkommens- und Verbrauchsstichprobe (EVS) 1988 durchgeführte Analysen zur bundesdeutschen Vermögensverteilung privater Haushalte einer vergleichenden Betrachtung unterzogen. Es wird gezeigt, an welchen Stellen Abweichungen zwischen den einzelnen Studien auftreten und worauf diese (vermutlich) zurückzuführen sind. Das vorliegende Arbeitspapier ist wie nachfolgend aufgebaut. Kapitel 2 vermittelt einen Eindruck von der Datenbasis, auf der die drei genannten Studien jeweils basieren, Kapitel 3 schildert kurz die Konstruktionselemente der drei behandelten Analysen, und in Kapitel 4 werden in einer Gegenüberstellung der drei Studien Unterschiede kausal herausgearbeitet. Es folgt in Kapitel 5 eine Bewertung der Untersuchungsergebnisse.
In diesem Bericht wurde das in [Pae02] eingeführte Verfahren "GenDurchschnitt" auf die symbolischen Daten zweier Datenbanken septischer Schock-Patienten angewendet. Es wurden jeweils Generalisierungsregeln generiert, die neben einer robusten Klassifikation der Patienten in die Klassen "überlebt" und "verstorben" auch eine Interpretation der Daten ermöglichten. Ein Vergleich mit den aktuellen Verfahren A-priori und FP-Baum haben die gute Verwendbarkeit des Algorithmus belegt. Die Heuristiken führten zu Laufzeitverbesserungen. Insbesondere die Möglichkeit, die Wichtigkeit von Variablen pro Klasse zu berechnen, führte zu einer Variablenreduktion im Eingaberaum und zu der Identifikation wichtiger Items. Einige Regelbeispiele wurden für jeden Datensatz genannt. Die Frühzeitigkeit von Regeln lieferte für die beiden Datenbanken ein unterschiedliches Ergebnis: Bei den ASK-Daten treten die Regeln für die Klasse "verstorben" früher als die der Klasse "überlebt" auf; bei den MEDAN-Klinikdaten ist es umgekehrt. Eine Erklärung hierfür könnte sein, dass es sich im Vergleich zu den MEDAN-Klinikdaten bei den ASK-Daten um ein Patientenkollektiv mit einer anderen, speziellen Patientencharakteristik handelt. Anhand der Ähnlichkeit der Regeln konnten für den Anwender eine überschaubare Anzahl zuverlässiger Regeln ausgegeben werden, die möglichst unähnlich zueinander sind und somit für einen Arzt in ihrer Gesamtheit interessant sind. Assoziationsregeln und FP-Baum-Regeln erzeugen zwar kürzere Regeln, die aber zu zahlreich und nicht hinreichend sind (vgl. [Pae02, Abschnitt 4]). Zusätzlich zu der Analyse der symbolischen Daten ist auch die Analyse der metrischen MEDAN-Klinikdaten der septischen Schock-Patienten interessant. Ebenfalls ist eine Kombination der Analysen der metrischen und symbolischen Daten sinnvoll. Solche Analysen wurden ebenfalls durchgeführt; die Ergebnisse dieser Analysen werden an anderer Stelle präsentiert werden. Weitere Anwendungen der Generalisierungsregeln sind denkbar. Auch eine Verbesserung des theoretischen Fundaments (vgl. [Pae02]) erscheint sinnvoll, da erst das Zusammenspiel theoretischer und praktischer Anstrengungen zum Ziel führt.
Die Struktur der Gesetzlichen Rentenversicherung (GRV) in der Bundesrepublik Deutschland ist grundsätzlich geändert worden. Die Bundesregierung hat die Einführung einer zusätzlichen privaten Alterssicherung auf freiwilliger Basis beschlossen. Hierdurch soll ein Kapitalstock gebildet werden, der die Leistungen der GRV ergänzt. Zur Förderung dieser Systemänderung der Alterssicherung werden umfangreiche fiskalische Unterstützungsmaßnahmen eingeführt. Im Rahmen des hier vorliegenden Beitrags wird auf die besondere Situation der Familien mit Kindern eingegangen. Im zweiten Abschnitt wird untersucht, inwieweit Familien mit Kindern in den letzten zehn Jahren in Deutschland in der Lage waren, privates Vermögen aufzubauen. Im dritten Abschnitt werden die beabsichtigten Änderungen des Systems der gesetzlichen Rentenversicherung in den Grundzügen dargestellt, und es wird ein Überblick über die geplanten fiskalischen Fördermaßnahmen gegeben. Im abschließenden vierten Abschnitt wird eine Bewertung der Änderungen vor allem in Bezug auf die Situation von Familien versucht.
Die Entwicklung des aggregierten Privatvermögens und seine Verteilung in Deutschland seit 1970
(2002)
Die hier vorgestellte Untersuchung des Vermögens privater Haushalte als ein möglicher Indikator für den Wohlstand einer Gesellschaft hat für die Bundesrepublik Deutschland einen starken Anstieg der Vermögen seit 1970 aufgezeigt. Dies gilt sowohl für die makroökonomischen Resultate der Finanzierungsrechnung der Deutschen Bundesbank als auch für die mikroökonomischen Ergebnisse der Einkommens- und Verbrauchsstichproben des Statistischen Bundesamts. Allerdings werden auch wesentliche Unterschiede im Aussagegehalt der einzelnen Datensätze deutlich. Während die Finanzierungsrechnung eine Steigerung des Nettovermögens um 808 Prozent in 27 Jahren aufweist (von 1,3 Billionen DM im Jahr 1970 auf 12,1 Billionen DM im Jahr 1997) lautet der entsprechende Prozentwert auf der Berechnungsbasis der Einkommens- und Verbrauchsstichproben nur 280 Prozent in 25 Jahren bei einer wesentlich niedrigeren Gesamthöhe in späteren Untersuchungen (von 2,2 Billionen DM im Jahr 1973 auf nur 8,3 Billionen DM im Jahr 1998). Die Untersuchung der Daten der EVS hat aufgezeigt, welch große Bedeutung das Immobilienvermögen für die Vermögenssituation der privaten Haushalte hat. Allerdings ist es nicht so, dass alle Haushalte über Eigentum an Grund- und Hausbesitz verfügen. In Westdeutschland hat es zwar eine starke Steigerungen der Eigentümerquote seit 1961 gegeben. Seit 1993 ist jedoch eine Stagnation bei etwa 50 Prozent zu konstatieren. Die Analyse der Vermögensverteilung nur bezogen auf die westdeutschen Haushalte hat im Zeitraum von 1973 bis 1993 eine abnehmende Konzentration sowohl bei der Betrachtung der Anteile einzelner Haushaltsquintile am Nettogesamtvermögen als auch bei der Analyse des Gini-Koeffizienten ergeben. Allerdings hat sich dieser Trend in den Jahren bis 1998 nicht weiter fortgeführt. Für das Jahr 1998 ist in Westdeutschland feststellbar, dass die unteren 40 Prozent der Haushalte über praktisch kein Vermögen verfügen, während das oberste Quintil über 60 Prozent des Gesamtvermögens aufweisen kann. Für Ostdeutschland sind starke Anpassungstendenzen hin zu den Werten der westdeutschen Bundesländer festzustellen. Dies betrifft einerseits die absolute Höhe der Vermögenswerte, auch wenn diese bisher nur 38 Prozent des entsprechenden Wertes westdeutscher Haushalte bei einer Betrachtung der Durchschnittswerte je Haushalte im Jahr 1998 erreichen. Andererseits ist auch die Eigentümerquote an Haus- und Grundbesitz nach der Wiedervereinigung stark angestiegen. Durch dieses Immobilieneigentum auf breiterer Basis wird die Ungleichheit der Vermögensverteilung in Ostdeutschland im Zeitablauf etwas verringert, so dass der Gini-Koeffizient in den Jahren von 1993 zu 1998 leicht gesunken ist. Jedoch kann auch für die neuen Bundesländer festgestellt werden, dass die unteren 40 Prozent der Haushalte über praktisch kein Vermögen verfügen, während das oberste Quintil ostdeutscher Haushalte sogar über 70 Prozent des Gesamtvermögens aufweisen kann. Feststellbar ist weiterhin eine hohe Übereinstimmung der Vermögensverteilung in Ost- und Westdeutschland. Sowohl die Vermögensverteilung auf der Basis der Quintilswerte als auch die Resultate der Gini-Koeffizienten weisen ähnliche Ergebnisse auf, wobei eine starke Angleichungstendenz zwischen beiden Landesteilen gegeben ist. Diese Ähnlichkeit der Ergebnisse kann nur als erstaunlich bezeichnet werden, wenn man bedenkt, dass beide Landesteile für über 40 Jahre unterschiedlichen wirtschaftspolitischen Leitbildern gefolgt sind – die Bundesrepublik Deutschland der sozialen Marktwirtschaft und die Deutsche Demokratische Republik der sozialistischen Planwirtschaft.
Einkommensverteilung in Deutschland : Strukturanalyse der Ungleichheit nach Einkommenskomponenten
(2000)
Ergebnisse von Verteilungsanalysen fallen je nach der Bezugseinheit - Haushalt oder Person - recht unterschiedlich aus. Dies gilt sowohl für das Niveau von Verteilungsindikatoren und deren Entwicklung im Zeitverlauf, als auch hinsichtlich der Beiträge einzelner Einkommens- und Abgabearten zu der gemessenen Ungleichheit. Auf der Basis der Einkommens- und Verbrauchsstichproben 1988 und 1993 und unter Verwendung der "älteren OECD-Skala" hat sich gezeigt, dass die Ungleichheit der personellen Verteilung der Nettoäquivalenzeinkommen im Beobachtungszeitraum in den alten Ländern zugenommen hat, aber nach wie vor wesentlich gleichmäßiger als die unveränderte Verteilung der Haushaltsnettoeinkommen auf Haushalte ist. In den neuen Ländern ist der Unterschied zwischen der haushaltsbezogenen und der personenbezogenen Einkommensverteilung noch deutlicher bei insgesamt geringerer Ungleichheit als in den alten Ländern. Auch die Zerlegung der aggregierten Ungleichheit nach Einkommenskomponenten führt zu teilweise abweichenden Ergebnissen in Abhängigkeit von der Bezugseinheit, da bei einzelnen Haushaltstypen im Durchschnitt jeweils unterschiedliche Einkommensarten dominieren. Entgegen gängigen Vorstellungen über Verteilungsstrukturen zeigt sich allerdings generell, dass die Verteilungsungleichheit zum größten Teil durch die Bruttoeinkommen aus unselbständiger Arbeit bestimmt wird. Zwar sind die Selbständigen- und Vermögenseinkommen erwartungsgemäß wesentlich ungleicher verteilt, durch ihren vergleichsweise geringen Anteil am Gesamteinkommen ist ihr Einfluss auf die Gesamtverteilung aber - insbesondere in Ostdeutschland, aber auch in Westdeutschland - begrenzt. Dies wird bei der Analyse der personellen Verteilung allerdings weniger deutlich als bei der Bezugnahme auf Haushalte. Wiederum im Gegensatz zu verbreiteten Annahmen wird die Ungleichheit der Verteilung der Haushaltseinkommen durch staatliche Transferzahlungen nicht oder nur unwesentlich gemildert. Dies ist aber nur auf den ersten Blick überraschend, da nur ein geringer Teil der Transfers vorrangig vertikalen, interpersonellen Umverteilungszielen dient. Die Leistungen der Sozialversicherung und vergleichbarer Systeme bezwecken hauptsächlich eine intertemporale Umverteilung und Lebensstandardsicherung bei Eintritt bestimmter Risikotatbestände (Alter, Tod des Ernährers, Unfall, Arbeitslosigkeit, Krankheit), so dass sie die Verteilung der Einkommen aus unselbständiger Arbeit abgeschwächt wiederspiegeln. Demzufolge geht auch von ihnen keine merkliche Verminderung der Ungleichheit der Nettoeinkommensverteilung auf der Haushaltsebene bzw. sogar eine leichte Erhöhung der Ungleichheit der personellen Verteilung der Nettoäquivalenzeinkommen in Westdeutschland aus. Aber selbst von den steuerfinanzierten Transfers geht unter Bezugnahme auf Haushalte insgesamt nur ein sehr geringer nivellierender Effekt aus. Hier wird die konzeptionelle Schwäche des analytischen Ansatzes am ungewichteten Haushaltseinkommen besonders deutlich. Denn mit dem Haushaltseinkommen wird ohne eine Berücksichtigung der Haushaltsgröße und -struktur die Bedarfssituation der Haushaltsmitglieder, die für viele steuerfinanzierte Transfers maßgeblich ist, nur unzureichend erfasst. Dementsprechend erweist sich der ausgleichende Effekt der Transfers der Gebietskörperschaften unter Bezugnahme auf Personen als recht deutlich, wenn auch in Westdeutschland im Vergleich zum Anteil am Einkommensaggregat als unterproportional. Bei einer weiteren Aufspaltung des heterogenen Komplexes der steuerfinanzierten Transfers in das einkommensunabhängige Kindergeld, Einkommensübertragungen mit Entschädigungscharakter und Transfers mit dem vorrangigen Ziel vertikaler Umverteilung zeigt sich aber auch für Westdeutschland eine weit überproportionale Reduzierung der Ungleichheit der Verteilung der Nettoäquivalenzeinkommen durch i. e. S. bedarfsabhängige Transfers. Absolut gesehen macht der ausgleichende Effekt zwar in den alten Ländern weniger als ein Zehntel, in den neuen Ländern ungefähr ein Fünftel der entsprechenden Effekte der persönlichen Steuern aus; unter Berücksichtigung des geringen Volumens der Transfers mit vorwiegend vertikaler Ausrichtung ergibt sich aber eine recht hohe Effizienz. Sie scheint in Westdeutschland zwischen 1988 und 1993 allerdings etwas zurückgegangen zu sein, ähnlich wie der ausgleichende Einfluss der persönlichen Steuern. Schließlich zeigt sich für das Kindergeld eine nur mäßige relative Reduzierung der Ungleichheit der personellen Einkommensverteilung, die 1993 in West- wie in Ostdeutschland nur ungefähr zwei Dritteln des Anteils am Einkommensaggregat entspricht. Dies ist angesichts der horizontalen Ausrichtung des Familienlastenausgleichs in Deutschland nicht verwunderlich, könnte aber für eine Zieldiskussion im Zusammenhang mit Reformüberlegungen Anlass geben.
Ziel der hier vorgestellten Arbeit ist es, einen Eindruck über die Größenordnung der Kosten eines Bürgergeldmodells als alternatives Grundsicherungssystem zu gewinnen. Dazu wurde eine formale („impact“-) Partialinzidenzanalyse mit Hilfe einer statischen Simulation auf der Basis von Mikrodaten der Einkommens- und Verbrauchsstichproben 1983 und 1988 durchgeführt. Die Ergebnisse können nur als ungefähre Orientierungspunkte interpretiert werden, zumal sie sich auf den Transferbereich beschränken. Bei der Konkretisierung des sozio-kulturellen Existenzminimums wurde im wesentlichen an das bestehende Sozialhilferecht angeknüpft, und für das anzurechnende Einkommen wurde schwerpunktmäßig ein Transferentzugssatz von 50% unterstellt. Die Berechnungen führen zu erheblichen Mehrkosten des Bürgergeldmodells gegenüber dem gegenwärtigen Nebeneinander verschiedener Mindestsicherungsleistungen (mit deutlich höheren Transferentzugssätzen), die z. gr. T. durch die auch oberhalb des Existenzminimums (bis zu dessen doppeltem Betrag) bestehenden potentiellen Ansprüche bedingt sind. Die Nettokosten hätten 1988 fast ein Drittel des Aufkommens der Lohn- und Einkommensteuer ausgemacht, so daß die hier vorgestellte Reformvariante als kaum finanzierbar bezeichnet werden kann. Es wäre wohl utopisch anzunehmen, daß die möglichen positiven Anreizeffekte des verminderten Transferentzugssatzes zu einer Senkung des Bürgergeldvolumens in ähnlicher Größenordnung führen würde. Mit Blick auf die Gegenwart ist zudem zu bedenken, daß seit der Wiedervereinigung das Transfervolumen im Falle der Einführung eines Bürgergeldes wesentlich höher als in der hier präsentierten Simulationsrechnung ausfallen dürfte, und zwar auch in Relation zum Volkseinkommen. Denn die schrittweise Angleichung der Einkommen in Ostdeutschland an das westdeutsche Niveau bewirkt, daß in der Übergangszeit die Haushaltseinkommen in den neuen Bundesländern vergleichsweise häufiger und tendenziell stärker unterhalb des Existenzminimums liegen als in Westdeutschland - es sei denn, für Ostdeutschland würde das relevante Existenzminimum deutlich niedriger als hier vorgeschlagen definiert; dies wäre aber nicht sinnvoll und politisch kaum tragbar. Eine Reform der sozialen Mindestsicherung nach dem Muster einer Negativen Einkommensteuer würde also zu erheblichen Mehrkosten führen. Bei allen Vorteilen, die ein Bürgergeldsystem mit 50%igem Transferentzugssatz haben mag, ist die Finanzierungsfrage völlig offen; bei höherem Transferentzugssatz wäre das Problem zwar weniger gravierend, aber nicht gelöst.
Die langfristige Entwicklung der personellen Einkommensverteilung in der Bundesrepublik Deutschland
(1998)
In diesem Beitrag zur Frage nach dem Ausmaß von Einkommensarmut von Familien stehen zwei Aspekte im Mittelpunkt. – Zum einen ist im Vorfeld von Verteilungsanalysen die Art der Einkommensgewichtung in Mehrpersonenhaushalten zu klären. Nach Abwägung verschiedener Ansätze zur Ableitung einer Äquivalenzskala wurde eine Präferenz für ein institutionell orientiertes Gewichtungsschema, approximiert durch die alte OECD-Skala, begründet. – Zum anderen wurde der Einfluss der Frauenerwerbsbeteiligung auf die Einkommenssituation von Familien mit Kindern empirisch untersucht. Von prekären Einkommensverhältnissen und Einkommensarmut sind vor allem Familien mit geringfügig beschäftigter oder nichterwerbstätiger Partnerin sowie Alleinerziehende – Letztere wiederum bei fehlender Erwerbstätigkeit besonders stark – betroffen, wobei in den neuen Ländern die Situation wesentlich brisanter ist als in den alten Ländern. Bei politischen Maßnahmen sollten Erwerbswünsche der Frauen und Bedürfnisse der Familien berücksichtigt werden. Von daher sind Transfers im Rahmen des Familienleistungsausgleichs und die öffentliche Förderung von Kinderbetreuungseinrichtungen nicht als konkurrierende, sondern eher als komplementäre Konzepte zu diskutieren.
Es gehört zu den Mindestansprüchen des Sozialstaats, bedürftigen Personen ein soziokulturelles Existenzminimum zu sichern. In Deutschland sollen gegenwärtig insbesondere die Leistungen der Sozialhilfe und der Grundsicherung für Arbeitsuchende dafür sorgen, dass dieses Minimalziel erreicht wird. Ob dies gelingt, ist jedoch fraglich, da erhebliche Teile der Bedürftigen ihnen zustehende Leistungen nicht in Anspruch nehmen. Die Statistiken über Leistungsempfänger/innen geben also nur "die halbe Wahrheit" über Bedürftigkeit in Deutschland wieder. Vor der Hartz-IV-Reform kamen auf drei Grundsicherungsempfänger/innen mindestens zwei, eher drei weitere Berechtigte, die von ihrem Anspruch keinen Gebrauch machten. Dabei waren einige gesellschaftliche Gruppen von verdeckter Armut besonders stark betroffen: alleinstehende Frauen, Paarhaushalte mit erwerbstätigem Haushaltsvorstand und Altenhaushalte. Die Einführung des Arbeitslosengeldes (Alg) II im Zuge der Hartz-IV-Reform konnte zwar die verdeckte Armut von früheren Arbeitslosenhilfebeziehenden vermindern. Doch andere Bedürftige, insbesondere Erwerbstätigenhaushalte mit geringem Einkommen, nehmen offensichtlich ihnen zustehende Leistungen nach wie vor häufig nicht in Anspruch. Die Gründe für das Phänomen der verdeckten Armut sind vielfältig. Wesentliche Ursachen sind offenbar, dass viele Bedürftige die relevanten gesetzlichen Regelungen nicht kennen oder mit der Inanspruchnahme staatlicher Hilfeleistungen Stigmatisierungsängste verbinden. Dem könnte entgegengewirkt werden, indem offensiv über bestehende Ansprüche informiert und ein vorurteils- und diskriminierungsfreies Klima im Umgang mit Hilfebedürftigen gefördert wird.
Im vorliegenden Papier werden drei Ansätze zur Reform des Familienleistungsausgleichs (FLA) mit jeweils zwei Varianten dargestellt und hinsichtlich ihrer fiskalischen Effekte und Wirkungen in verschiedenen Segmenten der Einkommensverteilung systematisch verglichen. – Mit dem weitestgehenden Konzept, der Kindergrundsicherung, wird ein Existenz sicherndes und zu versteuerndes Kindergeld in Höhe von monatlich 502 Euro bzw. 454 Euro pro Kind vorgeschlagen. Die bisherigen kindbedingten Freibeträge und mehrere Sozialleis-tungen könnten entfallen bzw. reduziert werden. – Daneben werden Kindergelderhöhungen auf einheitlich 238 Euro bzw. 328 Euro pro Kind und Monat, die allen Kindern – auch denen im SGB II-Leistungsbezug – zugute kommen sollen, untersucht. Das Kindergeld wäre wie bisher nicht zu versteuern, die bisherigen kindbedingten Freibeträge würden aber entfallen. – Schließlich wird der Vorschlag einer deutlichen Erhöhung des Kinderzuschlags bei reduzierter Mindesteinkommensgrenze und Wegfall der Höchsteinkommensgrenze erörtert. Zudem ist bei diesem Ansatz ein nochmals erhöhter Kinderzuschlag bei Alleinerziehenden – analog zum Mehrbedarfszuschlag nach dem SGFB II – (erste Variante) oder eine Herabsetzung der Transferentzugsrate auf Nichterwerbseinkommen von 100% auf 70% (zweite Variante) vorgesehen. Die zu erwartenden fiskalischen Belastungen der einfachen Kindergelderhöhung (ohne Be-steuerung) können ohne Weiteres hochgerechnet werden (16 bzw. 35 Mrd. Euro p. a.), die der anderen Reformmodelle sind aber ohne mikroanalytische Fundierung unter Berücksichtigung der Einkommensverteilung kaum abschätzbar. Zwar lassen sich auch die Bruttokosten der Kindergrundsicherung auf einfachem Wege ermitteln (Multiplikation der Kindergeld-Kinder mit der Betragshöhe), die Aggregate der davon abzusetzenden zahlreichen Einsparungen bei anderen Sozialleistungen und insbesondere der Steuermehreinnahmen sind allerdings nicht offensichtlich. Eine erste Überschlagsrechnung hat ergeben, dass die Nettokosten der ersten „großzügigen“ Variante der Kindergrundsicherung (502 Euro) denen der Kindergelderhöhung auf das sächliche Existenzminimum (322 Euro) ohne Besteuerung ungefähr gleich sind (in der Größenordnung von 35 Mrd. Euro). Eine genauere Quantifizierung kann aber nur auf der Ba-sis repräsentativer Mikrodaten und eines Simulationsmodells erfolgen, da insbesondere der Besteuerungseffekt der Kindergrundsicherung von der faktischen Einkommensverteilung abhängt. Auch eine Kostenschätzung für die Kinderzuschlagsreform bedarf mikroanalytischer Verfahren; ungeachtet dessen würde diese auf einen begrenzten Einkommensbereich gerichte-te Reform aber eindeutig die geringsten Kosten verursachen. Für einen systematischen Vergleich der Verteilungswirkungen der Reformvorschläge werden in der vorliegenden Arbeit Modellrechnungen für zwei ausgewählte Haushaltstypen präsen-tiert. Dabei wird deutlich, dass mit dem vergleichsweise begrenzten Konzept der Ausweitung des Kinderzuschlags die Situation von Familien in prekären Einkommensverhältnissen bis zu Familien der unteren Mittelschicht deutlich verbessert werden könnte. Inwieweit dieser Effekt eintreten würde, hängt allerdings auch vom Inanspruchnahmeverhalten ab; bisher ist die Nicht-Inanspruchnahme von Kinderzuschlag und Wohngeld weit verbreitet. Zudem würde sich die Situation der ärmsten Familien, die auf SGB II-Leistungen angewiesen sind, nicht verbessern, und am oberen Rand würden die Entlastungseffekte des FLA als Folge der kind-bedingten Freibeträge weiterhin mit dem elterlichen Einkommen zunehmen. Demgegenüber würden sich bei den Varianten der Kindergelderhöhung (ohne Besteuerung) die deutlichen Verbesserungen gegenüber dem Status quo gleichmäßig über das Einkommensspektrum vom Niedriglohnsegment – bei unverändert problematischen Effekten des Kinderzuschlags (Ein-kommensbruchstelle bei Höchsteinkommensgrenze) – bis in obere Schichten verteilen und erst am oberen Rand mit steigendem Einkommen sinken (infolge des Wegfalls der bisherigen kindbedingten Freibeträge). Die Förderungen durch die Kindergrundsicherung schließlich würden am stärksten im unteren und unteren Mittelbereich ausfallen und – im Gegensatz zu anderen Konzepten – insbesondere verdeckte Armut systembedingt, also quasi „automatisch“, weitgehend abbauen. Im oberen Mittelbereich und hauptsächlich in höheren Schichten würden die Transfers dagegen mit zunehmendem Einkommen kontinuierlich abnehmen. Insgesamt würde dies zu einem vergleichsweise stetig steigenden Verlauf des verfügbaren Familieneinkommens führen; die wegen der hohen Transferentzugsraten des Kinderzuschlags – gegebenenfalls in Kombination mit Wohngeld – häufigen Befürchtungen negativer Arbeitsanreize im unteren Einkommensbereich wären gegenstandslos. Inwieweit die hier diskutierten Reformkonzepte zu einem Abbau von Kinder- und Familien-armut und zu weniger Ungleichheit der personellen Einkommensverteilung führen können, lässt sich allein auf der Basis von Modellrechnungen allerdings nicht absehen. Dazu bedarf es detaillierter Analysen auf der Basis von repräsentativen Mikrodaten, die die faktische Ein-kommensverteilung abbilden und Simulationsrechnungen zur Quantifizierung der Effekte der Reformvarianten – unter Einbeziehung der Finanzierung der jeweiligen Nettokosten – ermöglichen. Daran wird im Projekt „Vom Kindergeld zu einer Grundsicherung für Kinder“ auf Basis der Daten des Sozio-ökonomischen Panels (SOEP) 2007 gearbeitet; die Repräsentativität des Datensatzes hinsichtlich des Nachweises von Einkommens-, insbesondere Transferar-ten wurde bereits geprüft – mit gutem Ergebnis.
Vom Kinderzuschlag zum Kindergeldzuschlag : ein Reformvorschlag zur Bekämpfung von Kinderarmut
(2007)
Ausgehend von einer kritischen Analyse des im Zuge der Hartz IV-Reform 2005 eingeführten Kinderzuschlags wird in der vorliegenden Studie ein Reformkonzept zur Bekämpfung von Kinderarmut entwickelt und eine quantitative Abschätzung der unmittelbaren Reformwirkungen vorgenommen. Bei der Gestaltung des Reformvorschlags wurde an Grundprinzipien des allgemeinen Familienleistungsausgleichs angeknüpft. Dieser sollte unabhängig von der jeweiligen Armutsursache das Existenzminimum des Kindes nicht nur von der Steuer freistellen, sondern im Bedarfsfall durch positive Transfers – mit einem Kindergeldzuschlag – gewährleisten. Dies erfordert a) die Aufstockung des Kindergeldes durch einen Zuschlag auf die Höhe des sächlichen Existenzminimums, also um maximal 150 Euro auf 304 Euro – bei Alleinerziehenden wegen besonderer Mehrbedarfe für das erste Kind um maximal 250 Euro auf 404 Euro; b) den Verzicht auf eine zeitliche Befristung des Kindergeldzuschlags; c) die Berücksichtigung des Familieneinkommen nach Abzug eines Freibetrages in Höhe des pauschalisierten Existenzminimums der Eltern bzw. des Elternteils (1.238 Euro bzw. 860 Euro); d) eine mäßige (mit Besteuerungsgrundsätzen vereinbare) Anrechnung des zu berücksichtigenden Einkommens – wir schlagen eine Transferentzugsrate von 50% vor; e) den Verzicht auf eine Berücksichtigung des Vermögens. Wesentliche Unterschiede des Reformkonzepts gegenüber dem derzeitigen Kinderzuschlag liegen in der Ersetzung der „spitzen“ Berechnung des elterlichen Existenzminimums durch eine Pauschale und in dem Verzicht zum Einen auf eine explizite Höchsteinkommensgrenze – aus der Transferentzugsrate ergibt sich freilich eine implizite Höchsteinkommensgrenze – und zum Anderen auf eine Mindesteinkommensgrenze. Es bleibt den Eltern also unbenommen, den Kindergeldzuschlag in Anspruch zu nehmen, selbst wenn ihre Einkommensverhältnisse und individuellen Wohnkosten auf einen höheren ALG II-Anspruch schließen lassen, den sie aber nicht wahrnehmen – sei es aus Stigmatisierungsangst, aus Unwissenheit, weil sie den Verweis auf kleine Ersparnisse befürchten oder sich von dem bürokratischen Aufwand abschrecken lassen. Aus vorliegenden Schätzungen geht hervor, dass aus den genannten Grün den das Ausmaß verdeckter Armut groß ist. Dem könnte durch einen vergleichsweise unbürokratischen Kindergeldzuschlag entgegengewirkt werden, insbesondere wenn der Leistungsträger, also die Familienkasse, verpflichtet wird, bei sehr geringem Einkommen des Antragstellers diesen auf möglicherweise bestehende höhere ALG II-Ansprüche hinzuweisen. Zur Abschätzung der unmittelbaren Reformwirkungen wurde ein Mikrosimulationsmodell entwickelt und mit den Daten des Sozio-ökonomischen Panels 2006 in mehreren Varianten gerechnet. Auf der Basis einer bereinigten Stichprobe ergeben sich – je nach Reformvariante – 3 Mio. bis 3,6 Mio. potenziell begünstigte Kinder, was etwa einem Sechstel bzw. einem Fünftel aller Kinder, für die Kindergeld bezogen wird, entspricht. Unter den Kindern von Alleinerziehenden würde die Empfängerquote mit gut einem Drittel weit überdurchschnittlich ausfallen. Die fiskalischen Bruttokosten des Reformmodells würden sich auf 3,7 Mrd. bzw. 4,5 Mrd. Euro jährlich (11% bzw. 13% der derzeitigen Kindergeldausgaben) belaufen; sie würden durch einige Einsparungen beim nachrangigen Wohngeld, bei ausbildungsbedingten Transfers sowie beim ALG II – sofern einige Anspruchsberechtigte den Bezug des Kindergeldzuschlags vorziehen – etwas vermindert werden. Der durchschnittliche Zahlbetrag pro Bedarfsgemeinschaft mit Anspruch auf Kindergeldzuschlag liegt bei 190 Euro p. M., der Median bei 150 Euro. Mit dem insgesamt begrenzten Mittelaufwand kann eine erhebliche Verminderung relativer Einkommensarmut von Familien erreicht werden. Die derzeit bei etwa 18% liegende Armutsquote von Kindern, für die Kindergeld bezogen wird, würde nach Einführung des Kindergeldzuschlags um etwa vier Prozentpunkte zurückgehen, die aller Mitglieder in den Familien von 16% um drei Prozentpunkte. Mit etwa zwei Dritteln lebt der größte Teil der potenziellen Anspruchsberechtigten in erwerbstätigen Familien, und die relative stärkste Verminderung der Armutsquote ergibt sich bei Familien mit Vollzeiterwerbstätigkeit. Die mit dem Kindergeldzuschlag zu bewirkende Verminderung von Kinderarmut würde wegen der hohen Erwerbsquote von Familien also mit einem Abbau von Armut trotz Arbeit einhergehen. Besonders große Reformwirkungen zeigen sich bei den Alleinerziehenden, für welche die Simulation eine Reduzierung der derzeit bei 40% liegenden Armutsquote um etwa acht Prozentpunkte ergibt. Dennoch verbliebe die Armutsquote auch nach Einführung des Kindergeldzuschlags auf einem bedrückend hohen Niveau. Dies ist ganz überwiegend auf die große Zahl der Alleinerziehenden mit Bezug von ALG II und Sozialgeld bzw. Sozialhilfe zurückzuführen, die annahmegemäß nach der Reform im Grundsicherungsbezug verbleiben, den vorrangigen Kindergeldzuschlag also nicht in Anspruch nehmen. Bei den Paarfamilien zeigt sich – relativ gesehen – ein ähnlicher Effekt des Kindergeldzuschlags wie bei den Alleinerziehenden; die Armutsquote von derzeit 12,5% würde um ein Fünftel auf 10% zurückgehen. Dabei fällt die Reformwirkung umso größer aus, je mehr Kinder in der Familie leben. Bei den trotz Einführung des Kindergeldzuschlags unter der relativen Armutsgrenze verbleibenden Paarfamilien handelt es sich zu einem geringeren Teil als bei den Alleinerziehenden um Empfänger von nachrangigen allgemeinen Grundsicherungsleistungen und zu einem größeren Teil um Fälle, bei denen auch das um den Kindergeldzuschlag erhöhte Einkommen die Armutsgrenze nicht erreicht. Ihre Situation würde sich dennoch durch die Reform erheblich verbessern, da die relative Armutslücke im Durchschnitt von 21% auf 14% zurückgehen würde; dies entspricht einer Einkommenserhöhung von durchschnittlich 267 Euro. Abschließend bleibt darauf hinzuweisen, dass der hier vorgestellte Reformvorschlag lediglich als erster Schritt zu einer allgemeinen Grundsicherung für Kinder zu verstehen ist. Er wurde unter dem Aspekt einer schnellen Umsetzbarkeit entwickelt, sollte aber weiter reichende Überlegungen nicht verdrängen. Diese haben nicht nur das sächliche Existenzminimum des Kindes, sondern darüber hinaus den verfassungsgerichtlich festgestellten Betreuungs- und Erziehungs- oder Ausbildungsbedarf (BEA) in den Blick zu nehmen. Er wird im Rahmen der Einkommensbesteuerung durch einen Freibetrag berücksichtigt (§ 32 Abs. 6 EStG), ist in die Bemessung des hier vorgestellten Kindergeldzuschlags aber nicht eingegangen. Eine systematische Weiterentwicklung des Familienleistungsausgleichs im Steuerrecht würde die Einführung eines einheitlichen (Brutto-) Kindergeldes zur Abdeckung von sächlichem Existenzminimum und BEA erfordern, das entsprechend der Leistungsfähigkeit der Eltern, also nach dem allgemeinen Einkommensteuertarif, zu versteuern wäre (Lenze 2007).
Die Auswertungen der EVS 2003 zur Höhe und Struktur der Konsumausgaben der Paarhaushalte mit einem Kind im unteren Einkommensbereich erfolgten vorrangig mit dem Ziel, Anhaltspunkte zur Beurteilung des gegenwärtigen Niveaus der mit Arbeitslosengeld II und Sozialgeld gegebenen Grundsicherung von Familien zu erarbeiten. Die Ergebnisse vermitteln einen ersten Eindruck über die insgesamt stark eingeschränkten Teilhabemöglichkeiten von Familien mit Bezug von Grundsicherungsleistungen. ...
Die vorliegende Untersuchung der effektiven Stundenlöhne in Deutschland erfolgte im Hin-blick auf die Frage nach der Ungleichheit ihrer Verteilung und der Einhaltung eines Kriteri-ums minimaler Leistungsgerechtigkeit. Ausgangspunkt ist die Annahme eines komplexen Gerechtigkeitsempfindens in der Gesellschaft, das neben dem Marktmechanismus als einem Motor für Leistung und leistungsabhängige Einkommen auch individuelle Anstrengungen sowie die Folgen faktischer Marktunvollkommenheiten bzw. faktischen Marktversagens berücksichtigt. Zur Approximation der ergänzenden Aspekte von Leistungsgerechtigkeit wird an relative Lohnpositionen angeknüpft: Lohneinkommen, die einen gesellschaftlichen Mittelwert sehr weit – bezogen auf den Durchschnitt um mehr als die Hälfte, und alternativ bezogen auf den Median um mehr als ein Drittel – unterschreiten, gelten als Indikator für Zielabweichungen. Implizit wird damit unterstellt, dass individuelle Leistungsunterschiede begrenzt, die aus dem Marktmechanismus folgende Differenzierungen aber grenzenlos sind. Die sich aus dem hier gewählten Kriterium ergebenden Niedriglohngrenzen entsprechen ungefähr alternativ abgeleiteten Grenzwerten, die aus der Norm folgen, dass eine Vollzeiterwerbstätigkeit mindestens das eigene sozio-kulturelle Existenzminimum zuzüglich einer Leistungskomponente sichern sollte. Neben dem Aspekt minimaler Leistungsgerechtigkeit für den unteren Rand der Verteilung werden keine weiteren konkreten Normen zur Beurteilung der Zielangemessenheit der beobachteten Verteilung der Lohnsätze gesetzt. Dies würde den Rahmen dieser Untersuchung sprengen. Die empirische Analyse auf Basis des Sozio-ökonomischen Panels (SOEP) und der Einkommens- und Verbrauchsstichprobe (EVS) konzentriert sich auf das Jahr 2003 und wird ergänzt um einige Auswertungen für 1998, die allerdings nur mit dem SOEP durchgeführt werden können. Obwohl aus dem SOEP generell eine größere Ungleichheit der Verteilung resultiert, halten sich die Unterschiede zwischen den Ergebnissen beider Datenquellen in Grenzen. ...
Zusammenfassung und Schlussfolgerungen Die verschiedenen Alternativrechnungen zur Bemessung des Eckregelsatzes auf Basis der Daten der EVS 2003 und der normativen Setzungen der derzeit gültigen Regelsatzverordnung (RSV) haben zu Beträgen leicht über (Variante 1b) bis mäßig unter (Variante 4b) dem gegenwärtigen Satz von 345 Euro geführt. Da sich aus einer kritischen Betrachtung der grundlegenden Vorentscheidungen, auf denen die RSV aufbaut, einige fragwürdige bzw. nicht konsistente Einzelregelungen ergeben haben, erscheint das seit 2005 gültige Niveau des gesetzlich anerkannten Existenzminimums als tendenziell zu gering, zumal der Eckregelsatz auch für den Leistungsanspruch von Familien mit Kindern maßgeblich ist. Darüber hinaus ist zu bedenken, dass die Herausnahme der Sozialhilfebezieher aus der Referenzgruppe gemäß RSV unter theoretischen Gesichtspunkten nicht hinreichend ist, um Zirkelschlüsse - vom Ausgabeverhalten der Hilfebedürftigen auf deren Existenzminimum - zu vermeiden. Denn nur etwa die Hälfte bis drei Fünftel der Bedürftigen nehmen ihre HLu-Ansprüche wahr, die weiteren Anspruchsberechtigten leben in verdeckter Armut. Die Referenzgruppe zur Ermittlung des sozio-kulturellen Existenzminimums müsste also auch um die so genannte Dunkelziffer der Armut (Personen in verdeckter Armut) bereinigt werden, was vermutlich zu einem leicht erhöhten (regelsatzrelevanten) Ausgabenniveau führen und Forderungen nach einer moderaten Anhebung des Eckregelsatzes unterstreichen würde. Abschließend soll der letztlich normative Charakter jeglicher Definition des Existenzmi-nimums nochmals verdeutlicht werden, aus dem die Notwendigkeit einer gesellschaftspoliti-schen Diskussion dessen, was ein menschenwürdiges Dasein und Chancengerechtigkeit - nicht nur im formalen, sondern im materiellen Sinne - ermöglicht, folgt. Dass mit dem so genannten Statistik-Modell der Regelsatzbemessung keineswegs Objektivität bzw. Wertur-teilsfreiheit, eher nur Überprüfbarkeit oder Nachvollziehbarkeit erreicht wird, haben die An-merkungen zu den regelsatzrelevanten Anteilssätzen einzelner Ausgabenpositionen in Kapitel 3.2 gezeigt. Wie stark der Einfluss normativer Vorentscheidungen auf das Niveau des sozio-kulturellen Existenzminimums ist, zeigt sich aber bereits in der Auswahl der Alleinstehenden als Referenzgruppe. Damit wird bei der Analyse des regelsatzrelevanten Ausgabeverhaltens auf eine Gruppe Bezug genommen, die überdurchschnittlich von relativer Einkommensarmut betroffen ist.13 Alternativ könnten auch die Paarhaushalte ohne Kinder mit ihrem vergleichs-weise geringen Armutsrisiko als Referenzgruppe definiert werden. Nach einer ersten Abschätzung ergibt sich für das unterste Quintil von Paaren ohne Kind ein regelsatzrelevanter Konsum in Höhe von gut 700 Euro; bei gegebenen Regelsatzproportionen folgt daraus ein Existenzminimum (ohne Kosten für Unterkunft und Heizung) von gut 390 Euro gegenüber derzeit 345 Euro bei Alleinstehenden und von etwa 1.130 Euro gegenüber 828 Euro bei Paa-ren mit einem Kind. Mit diesem Beispiel ist nicht die Empfehlung einer entsprechend starken Leistungsanhebung verbunden, sondern lediglich ein Hinweis darauf, dass das derzeitige Ver-fahren der Regelsatzbemessung restriktiv angelegt ist und mit aktuellen Daten eher eine Er-höhung als eine Absenkung des Niveaus des Existenzminimums begründet werden kann.
Sozialpolitische Auseinandersetzungen kursieren gegenwärtig verschärft um die Gestaltung der Sicherung des sozio-kulturellen Existenzminimums, um eine angebliche "Kostenexplosion" bei der Grundsicherung für Arbeitsuchende und um Vermutungen über verbreiteten Leistungsmissbrauch. Der Blick ist also stark auf die staatlicherseits auf Basis des Sozialgesetzbuches (SGB) über Transfers "zu bekämpfende" und "bekämpfte" Armut gerichtet. Vor diesem Hintergrund sollen die auf relative Grenzen – 50% des arithmetischen Mittels oder 60% des Medians der Nettoäquivalenzeinkommen – bezogenen Studien über Armut in Deutschland um eine Armutsanalyse ergänzt werden, die den Einkommensbereich unterhalb des gesetzlichen Existenzminimums in den Fokus nimmt. In der folgenden Untersuchung geht es nicht nur um die Größe der edürftigenBevölkerungsgruppe insgesamt, sondern darüber hinaus um die Bedeutung von Ursachen der Hilfebedürftigkeit – Arbeitslosigkeit, Teilzeiterwerbstätigkeit, niedriges Erwerbseinkommen, Alter –, um geschlechtsspezifische Unterschiede und um die Betroffenheit von Kindern. Hier fehlt es bisher an zeitnahen empirischen Informationen. Daten über die Zahl und Struktur der Empfänger von Grundsicherungsleistungen – also von Arbeitslosengeld II (Alg II) bzw. Sozialgeld, Grundsicherung im Alter und bei Erwerbsminderung oder Hilfe zum Lebensunterhalt (HLu) der Sozialhilfe – vermitteln nur die "halbe Wahrheit". ...
Die vorliegende Dissertationsschrift befasst sich mit der molekulargenetischen Analyse zweier Basalganglienerkrankungen. Zum einen wurden Patienten mit M. Parkinson genetisch untersucht, zum anderen Patienten mit autosomal dominanter zervikaler Torsionsdystonie. Die Aufgabe bestand in der passenden Wahl der Methode zur jeweiligen humangenetischen Fragestellung. Der erste Teil handelte von der Suche der krankheitsverursachenden Mutation für die autosomal dominante zervikale Torsionsdystonie mit Spätmanifestation auf Chromosom 18p (Kandidatenlokus DYT7). Die erkrankte Familie deutscher Herkunft zeigt dystone Symptome mit Betonung auf kraniozervikale und brachiale Körperabschnitte und ist somit die weltweit einzige bekannte Familie mit Vererbung dieser ansonsten sporadisch auftretenden Erkrankung. Die PCR-Sequenzierung der Kandidatengene ZFP161, LOC390828, NDUFV2 und PTPRM auf dem DYT7 Lokus erbrachte bei den sieben erkrankten Familienmitgliedern im Vergleich zu nicht verwandten Kontrollen (Ehepartner und 96 Kontrollen der Blutbank) keinen Aminosäureaustausch, der ausschließlich bei den erkrankten Probanden zu finden war. Technisch konzentrierte sich diese Untersuchung auf die Amplifizierung und anschließende Sequenzierung jedes einzelnen Exons in den zu untersuchenden Proben, und die Bestätigung einer putativen Mutation mittels Verdau der PCR-Produkte durch Restriktionsendonukleasen. Die Auswahl der Kandidatengene erfolgte aufgrund der Annahme pathobiochemischer Mechanismen, die durch andere Formen der vererbten Torsionsdystonie oder zellbiologische Experimente als krankheitsverursachend gelten. Auch wenn keine Mutation gefunden wurde, so konnten bereits bekannte und neue single nucleotide polymorphisms (SNP) etabliert werden. Die zweite Thematik befasste sich mit der Frage, ob das bereits bekannte Parkinson-Gen UCH-L1 auf dem PARK5 Lokus krankheitsverursachend für den autosomal dominanten M. Parkinson in einer spanischen Familie ist. Diese parametrische Kopplungsanalyse wurde mithilfe der heißen Polyacrylamid-Gelelektrophorese (PAGE) durchgeführt. Dabei konnte in allen Patienten und den Verwandten ersten Grades über Analyse der Mikrosatelliten nördlich und südlich der Kandidatenregion (UCH-L1) in einem Bereich sehr niedriger Rekombinationswahrscheinlichkeit eine Haplotypisierung erfolgen. Die Haplotypisierung zeigte nicht die erforderliche Identifizierung eines Krankheitsallels bei allen betroffenen Probanden. Somit ist hier neben der einzig bekannten deutschen PARK5 Familie keine weitere Familie mit UCH-L1 Mutation bestätigt worden. Dementsprechend ist die Ätiologie dieser Erkrankung in dieser Familie noch unklar, was aber der Bedeutung des Ubiquitin-Proteasom Systems in der Parkinson-Entität keinen Abbruch getan hat. Da alle anderen autosomal dominanten Parkinson-Loci ausgeschlossen sind, muss sich die Ursache für den M. Parkinson in dieser Familie in einem heute noch unbekannten Gen befinden. Weitere Untersuchungen im Rahmen eines Genomscans sind aufgrund der geringen Fallzahl nicht möglich. Die letzte Aufgabe dieser Arbeit bestand in der Durchführung einer Assoziationsstudie mit den putativen PINK1 (PARK6) Interaktoren NME4 und MTIF3 für den mehrheitlich sporadisch auftretenden M. Parkinson. Dabei wurden in zwei unabhängigen Studiengruppen mit insgesamt 453 sporadischen Parkinsonpatienten und 370 Kontrollen jeweils zwei SNPs auf gekoppelte Vererbung mit der Erkrankung untersucht. Der Unterschied zwischen den Testgruppen bestand im Studiendesign, da zum einen mit den Patienten nicht verwandte Kontrollen und zum anderen verwandte Kontrollen verwendet wurden. Die mit beiden Studientypen normalerweise auftretenden Probleme durch Stratifikation bzw. erniedrigte statistische Power konnten durch Kombination der Studien ausgeglichen werden. Das Methodenspektrum umfasste PCR und Restriktionsverdau, was zum Auffinden eines Kopplungsungleichgewichts für das Gen MTIF3 führte. Ein heterozygoter Basenaustausch für den Polymorphismus rs7669 erhöht signifikant das Relative Risiko an M. Parkinson zu erkranken, wohingegen der homozygote Basenaustausch das Krankheitsrisiko des Trägers signifikant erniedrigt. Bezüglich des Relativen Risikos wurde der Effekt der molekularen Heterosis nachgewiesen. Bei diesem mitochondrial lokalisierten Gen handelt es sich um einen Initiator der mitochondrialen Translation. Demzufolge besteht hier Einfluss auf die Homöostase und somit Funktionalität der Atmungskettenkomplexe, die als bedeutend für die Pathogenese des M. Parkinson angesehen werden. Die Verbindung zum mitochondrial lokalisierten PINK1 besteht aufgrund seiner Kinase-Aktivität in der An- und Abschaltung des mitochondrialen Translations - Initiationsfaktors. Aber auch die Wichtigkeit von NME4 konnte in dieser Studie trotz fehlender Assoziation nicht ausgeschlossen werden, da vorangehende experimentelle Ergebnisse dieses Protein bereits in den PINK1 Signalweg zuordnen konnten. MTIF3 könnte wohlmöglich ein wichtiger genetische Risikofaktor für den idiopathischen M. Parkinson sein. Es bleibt abzuwarten, ob zukünftige genetische und zellbiologische Experimente die Wichtigkeit, die in diesem Protein zu liegen scheint, bestätigen können.
Der G-Protein-gekoppelte Histamin-H3-Rezeptor (H3R) ist einer von vier bekannten Histamin-Rezeptorsubtypen. Die Verbreitung erstreckt sich hauptsächlich auf das ZNS, wo der Rezeptor maßgeblich an der Regulation des Schlaf-Wach-Rhythmus, der Kognition, der Aufmerksamkeit und dem Ernährungsverhalten beteiligt ist. Als Autorezeptor reguliert er die Darstellung und Freisetzung von Histamin im Gehirn und moduliert darüberhinaus als Heterorezeptor auch die Konzentration anderer wichtiger Neurotransmitter. Ein Ansatz für die Entwicklung neuer Arzneistoffe bei multifaktoriellen Erkrankungen entspringt der Hybridtheorie. In dieser Arbeit wurde der Hybridansatz durch verschiedene Varianten realisiert, bei denen die jeweiligen Pharmakophore durch Überlappung oder Aneinanderkopplung verknüpft wurden. Als Grundstruktur für das H3-Pharmakophor diente das 4-(3-Piperidin-1-ylpropoxy)-phenyl-Element, als andersartige Pharmakophore dienten neben Arzneistoffen aus der Gruppe der Neuroleptika, Antidepressiva und SSRI auch solche Pharmakophore, die das Wirkprofil von H3R-Liganden durch spezifische Eigenschaften (z. B. neuroprotektiv) ergänzen können. Bei der Kopplung der Pharmakophore lag der Fokus auf der Untersuchung von Aminvariationen. Mit Hilfe des Hybridansatzes wurden in dieser Arbeit zahlreiche neue und potente Histamin-H3-Hybridliganden entwickelt. Es wurden hohe Bindungsaffinitäten im nano- bis subnanomolare Bereich erzielt und wichtige Struktur-Wirkungsbeziehungen abgeleitet. In-vitro zeigte sich eine hohe Toleranz des H3R bezüglich der heterogenen Liganden, darunter solche mit sterisch anspruchsvollen, stark basischen und sauren Gruppen.
Einführung Seit Einführung der Diffusionstensorbildgebung- (DTI) basierten Traktographie von zerebralen Bahnsystemen besteht der Verdacht einer zu dünnen Ausdehnung der Faserbahnen in der unmittelbaren Nachbarschaft von zerebralen Läsionen. Der gegenüber der tatsächlichen Ausdehnung verminderte Durchmesser verjüngt sich zusätzlich mit zunehmendem Abstand von dem sog. seed-Volume (“seed-VOI”). Die unterrepräsentierte Ausdehnung der Faserbahnen stellt in der neurochirurgischen Operationsplanung und intraoperativen Neuronavigation ein erhebliches Problem bei der Beurteilung der Resektionsgrenzen von Tumoren bzw. der Grenze dringlich zu erhaltender eloquenter Faserbahnen dar. Mit einem zusätzlichen, auf die Läsion fokussierten Traktographie-Algorithmus – Lesion-based Fibertracking (LBFT) – soll die Auswertbarkeit von Faserbahnen in der Umgebung von intrazerebralen Läsionen verbessert werden. Der Algorithmus von LBFT wird vorgestellt und das Verfahren anhand der Darstellung von Bahnen des Tractus corticospinalis (TCS) mit dem Standardverfahren verglichen. Methode In 40 Patienten mit intrazerebralen Läsionen in Nachbarschaft zu kortikospinalen Bahnen (Pyramidenbahn) wurde eine Diffusionstensor-bildgebung und fMRT basierte Faserbahndarstellung des Tractus corticospinalis auf Grundlage eines „tensor-deflection-Algorithmus“ (TEND) durchgeführt. Hierfür wurden Bahnen von den kortikalen motorischen Repräsentationen der Hand, des Fußes und der Zunge zum Hirnstamm visualisiert. Im Standardverfahren wird ein würfelförmiges Volumen – das sog. seed-Volume oder Ursprungsvolumen – im Gyrus praecentralis entsprechend der anatomischen und funktionellen Bildgebung definiert. Ein zweites würfelförmiges Volumen, lokalisiert im Hirnstamm selektiert ausschließlich Fasern welche durch beide Volumen verlaufen. Die resultierenden Fasern werden bezüglich ihres Verlaufes durch typische anatomische Landmarken kontrolliert und ggf. korrigiert. Anschließend wird das Faserbündel mittels einer Oberflächenrekonstruktionstechnik („surface rendering“) dreidimensional rekonstruiert (iPlan 2.5Cranial, BrainLab®, Feldkirchen, Germany). Für das neue Verfahren des LBFT wird die Region definiert, in welcher die Faserbahn des Standardverfahrens der Läsion am nächsten kommt und hier, um die Faserbahn des Standardverfahrens, ein neues seed-Volume platziert, welches das Standardfaserbündel um 10 mm überragt. Traktographie und Segmentierung werden analog dem Standardverfahren durchgeführt. Fasern, die nicht den Gyrus praecentralis erreichen oder nicht durch den Pedunculus cerebri verlaufen, werden eliminiert. Die Faserzahl, die Größe der Faserbahnen und die Größendifferenz zwischen den Bahnen des Standardverfahrens und LBFT werden verglichen und das Verfahren auf inter- und intra-rater Reliabilität geprüft. Ergebnisse Das Standardverfahren und LBFT waren in allen 40 Patienten durchführbar. Die Faserzahl bei LBFT erhöhte sich signifikant gegenüber dem Standardverfahren um 383,27% (p<0,0001). Der maximale Durchmesser in der Ebene, in welcher das Faserbündel der Läsion am nächsten kommt, sowie der Durchmesser in Richtung der Läsion erhöhen sich signifikant um 171,75 % bzw. 196,45 % (jeweils p<0.0001). Daraus folgt eine durchschnittliche Zunahme des Durchmessers in Richtung der Läsion um 4.48mm (± 2.35). Fazit Die Fehleinschätzung des Durchmessers und der Distanz des TCS zu subkortikalen Läsionen bei Anwendung des Standardverfahrens DTI-basierter Traktographie stellt ein erhebliches Problem in der funktionellen neurochirurgischen Operationsplanung und intraoperativen Neuronavigation dar. Durch den zusätzlichen Schritt des LBFT kann die Fehleinschätzung korrigiert und der in vorhergehenden Studien eingeforderte Sicherheitsabstand standardisiert robust und reliabel realisiert werden.
Die lutherische Reformation war nicht nur eine Reformation von Glauben und Leben, sondern auch eine solche von Tod und Sterben. Mit den Predigten Luthers bei den Begräbnisfeierlichkeiten für die sächsischen Kurfürsten Friedrich den Weisen (1525) und Johann den Beständigen (1532), der Predigt bei Luthers eigenem Begräbnis (1546) und den jeweils begleitenden biographischen orationes Philipp Melanchthons formte sich eine neue Gattung der Totenmemoria aus, die von den Wittenberger Theologiestudenten an ihre späteren Wirkungsorte getragen wurde. Sie selbst waren es dann, in ihrer Funktion als Prediger, die das neue Medium der Leichenpredigt zu ihrer eigenen Verortung in der frühneuzeitlichen Gesellschaft nutzten, indem sie die Gruppe der evangelischen Geistlichen, in der Gestalt des jeweils Verstorbenen, als nachahmenswertes Vorbild christlicher Tugend priesen und ihre Rolle für den gesellschaftlichen Zusammenhalt herausstellten. Das so gezeichnete Bild bringt nicht nur das Amtsverständnis zum Ausdruck, sondern wirft auch Licht auf die jeweiligen Zeitumstände, den Bildungsweg der Verstorbenen, ihre Berufung als Prediger, Heiratsstrategien, Kinder und deren Entwicklung, Zuständigkeitsverteilungen im Amt, gesundheitliche und andere Beschwerden, ihren seelsorgerlichen Einsatz, ihre konfessionelle Ausrichtung und schließlich das ritualisierte Sterben. Somit sind gedruckte Leichenpredigten eine vielseitig auswertbare Quelle zur frühneuzeitlichen Alltagskultur, insbesondere hinsichtlich der Bevölkerungsgruppe, die uns sowohl als deren Autoren, wie als Verstorbene gegenübertritt. Die lutherische Reichsstadt Frankfurt am Main, deren Geistliche sich zur gemeinsamen Beratung in einem „Predigerministerium“ zusammenfanden, bietet hier ein besonders lohnendes Untersuchungsfeld. Die gute Überlieferungslage, die Bedeutung Frankfurts im Alten Reich, wie auch das, gerade am Beginn der Reformationsepoche, spannungsreiche Miteinander von Rat und Predigern ermöglichen es, an ausgewählten Beispielen die Etablierung, das Selbstverständnis und die wechselnden theologischen Herausforderungen der mit der Reformation entstandenen neuen Sozialgruppe der evangelischen Geistlichkeit im Wandel dreier Jahrhunderte zu verfolgen.
Diese Arbeit plädiert für eine rationale Behandlung von Patientendaten und untersucht dazu die Analyse der Daten mit Hilfe neuronale Netze etwas näher. Erfolgreiche Beispielanwendungen zeigen, daß die menschlichen Diagnosefähigkeiten deutlich schlechter sind als neuronale Diagnosesysteme. Für das Beispiel der neueren Architektur mit RBF-Netzen wird die Funktionalität näher erläutert und gezeigt, wie menschliche und neuronale Expertise miteinander gekoppelt werden kann. Der Ausblick deutet Anwendungen und Praxisproblematik derartiger Systeme an.
Im Zeitraum 1. 11. 1993 bis 30. 3. 1997 wurden 1149 allgemeinchirurgische Intensivpatienten prospektiv erfaßt, von denen 114 die Kriterien des septischen Schocks erfüllten. Die Letalität der Patienten mit einem septischen Schock betrug 47,3%. Nach Training eines neuronalen Netzes mit 91 (von insgesamt n = 114) Patienten ergab die Testung bei den verbleibenden 23 Patienten bei der Berücksichtigung von Parameterveränderungen vom 1. auf den 2. Tag des septischen Schocks folgendes Ergebnis: Alle 10 verstorbenen Patienten wurden korrekt als nicht überlebend vorhergesagt, von den 13 Überlebenden wurden 12 korrekt als überlebend vorhergesagt (Sensitivität 100%; Spezifität 92,3%).
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Ein wesentliches Ziel der modernen Perforatorlappen vom Unterbauch (DIEP-flap) für die Brustrekonstruktion nach Mammaamputation ist die Schonung der Rektusmuskulatur. Der Funktionserhalt der Muskulatur ist abhängig von der Präparationstechnik. In unserer Studie wird die Interaktion zwischen der Muskel- und Nervendurchtrennung und der postoperativen Muskelfunktion untersucht. Material und Methoden: Unser Patientenkollektiv umfasst 42 Patienten. Im Zeitraum von 6/04 bis 06/07 wurden 44 DIEP-Lappen an unserer Klink nach dem gleichen operativen Standard von unterschiedlichen Operateuren zur Brustrekonstruktion transferiert. Die Standards beinhalten die beidseitige Präparation der Perforatorgefäße des Unterbauches, der SIEA-Gefäße, die Auswahl der 2–4 kräftigsten Perforatoren einer Seite und die schonende Präparation der Rektusmuskulatur und der motorischen Nervenäste.In einer prospektiven monozentrischen Studie haben wir die Rektusmuskulatur präoperativ und 6 Monate postoperativ untersucht. Für die Funktionsanalyse wurde sowohl die Myosonografie der Rektusmuskulatur als auch eine klinischen Untersuchung angewandt. Intraoperativ wurde die Anzahl und Lokalisation der Perforatoren, die Länge der gespreizten Muskulatur, die Länge der durchtrennten Muskulatur und die Anzahl und Lokalisation der durchtrennten intramuskulären Nerven in einer Skizze eingetragen. Die Relation zwischen der intraoperativen Muskel- und Nervenschädigung und der postoperativen Funktion wurde analysiert. Ergebnisse: Bei der Hebung des DIEP – flaps wurden im Durchschnitt 10,8 cm Muskulatur gespreizt, 8,2 cm Muskulatur getunnelt und 2,5 cm Muskulatur durchtrennt. In 41% (18 Pat) wurde 1 motorischer Nervenast durchtrennt, in 27,3% (12 Pat) waren es 2 und in 13,6% (6 Pat) 3 Nervenäste. Bei der klinischen Untersuchung 6 Monate postoperativ hatten 8 Patientinnen noch funktionelle Störungen beim Heben schwerer Gegenstände. Myosonografisch fand sich bei 3 Patientinnen eine Funktionsminderung: 1 vollständiger Funktionsverlust der Muskulatur mit Relaxatio, 2 relevante Minderungen der Kontraktilität Bei keiner Patientin fand sich eine Bauchwandhernie. Bei allen Patientinnen mit einer Beeinträchtigung der Muskulatur waren mind. 2 motorische Nervenäste durchtrennt worden. Schlussfolgerung: Die klinische und myosonografische Funktionsanalyse der Bauchwand ermöglicht die Erstellung von Standards zur verbesserten Operationstechnik. Unsere Ergebnisse zeigen, dass die Durchtrennung von 2 oder mehr motorischen Nervenästen vermieden werden muß. Die Länge der durchtrennten und gespreizten Muskulatur ist dagegen von geringerer Bedeutung.
Einleitung: Die pathologische Stimulierbarkeit von Serum-Calcitonin (CT) im relativ niedrigen Bereich (über 100 bis 300 pg/ml) trennt nicht hinreichend zwischen C-Zell-Hyperplasie (CCH) und C-Zell-(Mikro-)Karzinom (CCC), bei Überwiegen der Fälle mit CCH. Der Schilddrüsenisthmus ist frei von C-Zellen (Lit. mult., eigene Studie). Dies führte zur Methode der ITBL , welche nun an einer größeren prospektiv dokumentierten Serie von Patienten evaluiert wird.
Material und Methoden: 102 Patienten mit präoperativ gering bis mäßig erhöhtem CT (stim.≥100 ≤400 pg/ml) wurden mit der Intention zur ITBL operiert. Bei 30 erfolgte die Komplettierung zur totalen Thyreoidektomie (TTX), davon 27 in gleicher Sitzung, im Fall von Malignität unter Einschluss der systematischen Lymphknotendissektion (LNX). Gründe zur Komplettierung waren Mikrokarzinome (12 medulläre, 7 differenzierte) oder benigne Isthmusknoten (n=11).
Ergebnisse: Bei allen 72 Patienten mit definitiver ITBL (darunter 2 Mikro-CCC, übrige CCH) lag, ebenso wie bei den 30 Patienten mit TTX, das postoperative CT unter der Messgrenze (unter 2 pg/ml), mit einer Ausnahme (3 pg/ml, nicht stimulierbar); maximal stim. CT war bei 5 der 72 Patienten im unteren Normbereich messbar (3 – 4,6 pg/ml), bei den übrigen ebenfalls unter der Messgrenze. Alle 102 Patienten waren "biochemisch geheilt".
Schlussfolgerung: Die ITBL hat sich mit hinreichender Sicherheit als optimale Operationsmethode für Fälle mit CCH erwiesen und ist bzgl. ihrer Radikalität der TTX gleichwertig, unter Belassung eines gesunden Schilddrüsenrestes (Isthmus) von funktioneller Relevanz (2 – 5 g).
Die Virtuelle Fachbibliothek Biologie (www.vifabio.de) bündelt die Recherche nach wissenschaftlich hochwertigen Quellen aus Bibliotheken, Aufsatzbanken und Internet. Zentrales Element von vifabio ist dabei der Virtuelle Katalog: Mit einer Suchanfrage werden mehrere Kataloge zoologisch bzw. ornithologisch relevanter Bibliotheken, Zeitschriftendatenbanken wie Zoological Record (Nationallizenz 1864 bis 2007 für Nutzer in akademischen Einrichtungen), BioLIS und der Aufsatzkatalog OLC, sowie Landesbibliographien und der Internetquellen-Führer von vifabio durchsucht. Verlinkungen zur Elektronischen Zeitschriftenbibliothek Regensburg (EZB), zum Lieferdienst subito sowie zum Karlsruher Virtuellen Katalog (KVK) erleichtern den Zugang zum Volltext oder zum gedruckten Exemplar. Weitere Module von vifabio wie der Internetquellen-Führer bzw. der Datenbank-Führer eröffnen zusätzliche Rechercheoptionen.
Die Allmacht der göttlichen Gnade in der Gaudiya-Vaisnava-Theologie Srila Bhaktivinoda Thakuras
(2010)
Yajnavalkya : seine Philosophie – seine Soteriologie ; Klaus Mylius zum 80. Geburtstag gewidmet
(2010)
Nahrungsmittelallergikern steht aufgrund inakzeptabler Nebenwirkungen bei der spezifischen Immuntherapie zurzeit noch keine kausale Therapie dieser Erkrankung zur Verfügung. Demzufolge bleibt die Vermeidung der entsprechenden Lebensmittel für Nahrungsmittelallergiker der einzige Weg möglicherweise lebensbedrohlichen allergischen Reaktionen zu entgehen. Ziel dieser Arbeit war es, das Potential eines viralen Vektors für die Verwendung bei der spezifischen Immuntherapie der Lebensmittelallergie zu untersuchen. Die Überlegung dahinter war, das Risiko eines anaphylaktischen Schocks, der bei Injektion eines Allergens immer gegeben ist, durch intrazelluläre Expression des Proteins über das rekombinante Virus zu verringern. Zusätzlich dazu bringt das modifizierte Vacciniavirus Ankara (MVA) ideale Voraussetzungen für eine Allergievakzine mit: Die Infektion mit MVA führt zu einer stark Th1-gerichteten Immunantwort gegen die viral exprimierte Proteine, die möglicherweise die allergische Th2-gerichtete Immunantwort modulieren kann. Die prophylaktische Immunisierung mit MVA-OVA im Mausmodell der systemischen Sensibilisierung gegen Ovalbumin (OVA) führte dosisabhängig zur Suppression der spezifischen IgE-Antwort und somit zum Schutz vor allergischer Sensibilisierung. Zusätzlich konnte nachgewiesen werden, dass die Vakzinierung mit MVA-OVA eine dauerhafte spezifische IgG-Antwort induziert. Diese Daten unterstützen das Konzept einer Modulation der Sensibilisierung durch MVA-Vakzine. Weiterhin wurden zwei rekombinante Vakzinen generiert, mittels derer entweder das Tropomyosin aus Garnelen (Pen a 1) oder das Lipid-Transfer-Protein aus Haselnuss (Cor a 8) intrazellulär exprimiert werden konnte. Dass die Sensibilisierung gegen diese Allergene häufig mit schweren allergischen Reaktionen korreliert, unterstreicht die Notwendigkeit einer verbesserten Immuntherapie in diesem Bereich. Während MVA-Pen a 1 in ausreichender Menge und Qualität für die Verwendung im Mausmodell hergestellt werden konnte, gelang es nicht, eine homogene Population von MVA-Cor a 8 zu gewinnen, in der das Selektionsgen K1L nicht mehr vorhanden war. Parallel zur Virusherstellung wurden Mausmodelle der Sensibilisierung gegen Cor a 8 und Pen a 1 entwickelt. Vergleiche unterschiedlicher Mausstämme ergaben, dass sich Mäuse des Stammes CBA/J am empfänglichsten für eine systemische Sensibilisierung mit Cor a 8 sind. Aufgrund von Erfahrungen zur Sensibilisierung gegen Pen a 1 wurden Mäuse des Stammes C3H/HeJ bei der Etablierung eines Garnelenallergiemodells verwendet. Es zeigte sich, dass durch die intragastrale Applikation von 0,1 mg Pen a 1 sowie Choleratoxin als Adjuvanz (drei Gaben in dreiwöchigem Abstand), gefolgt von einer systemischen Gabe des Allergens mit Aluminiumhydroxid eine spezifische Sensibilisierung hervorgerufen werden konnte, die nach Exposition mit Pen a 1 zu allergischen Symptomen führte. Auch in diesem Modell bot die prophylaktische Immunisierung mit MVA-Pen a 1 Schutz vor Pen a 1spezifischer Sensibilisierung. Um die therapeutische Effektivität der Vakzine ermitteln zu können, muss die begonnene Etablierung eines Allergiemodells mit symptomauslösenden Provokationen und immunologischen Analysen weitergeführt werden. Der in dieser Studie beobachtete starke schützende Effekt einer Vakzinierung mit MVA vor allergischer Sensibilisierung und das sehr gute Sicherheitsprofil dieses Vektors in klinischen Studien zu anderen Erkrankungen belegt die Möglichkeit einer Verwendung von MVA zur erfolgreichen spezifischen Immuntherapie der Lebensmittelallergie.
Einleitung: Der Schlauchmagen (Sleeve Gastrectomy) wurde zunächst als erster Teil der biliopankreatischen Diversion mit Duodealswitch eingeführt, um das operative Risiko durch eine Zweischritt-Therapie zu senken. Zunehmend wird das Verfahren nun auch als eigeneständige Operation zur Gewichtsreduktion eingesetzt, obwohl noch keine Langzeitergebnisse vorliegen.
Material und Methoden: Im Zeitraum von 03/2001 bis 03/2007 wurden 120 Patienten (mittleres Alter: 40,3 Jahre; Geschlecht : 86 Frauen, 34 Männer ; Mittelwerte für Gewicht (179,8 kg), Körperlänge (1,72 m), BMI (60,7 kg/m2)Übergewicht (117,1 kg)mit einem laparoskopischen Schlauchmagenbildung behandelt. Die Ausgangssituation war zwischen den Gruppen nicht verschieden (Pearson). Bei 106 der Patienten war ein BPD-DS geplant, der in zwei Schritten erfolgen sollte. 6 Patienten hatten bereits vorher ein Magenband. In der Gruppe A (n=25) erfolgte keine Kalibration des Schlauches mit Hilfe einer Sonde. In Gruppe B (n=32) wurde eine 44 French und in Gruppe C (n=63) eine 33 French im Durchmesser starke Sonde zur Kalibration eingesetzt.
Ergebnisse: Intraoperativ wurden durch Volumenmessung über die Sonde die Schlauchvolumina mit einer hohen Varianz gemessen (A: 149,0 ml, SD: 15,2; B:117,4 ml, SD:34,8; C: 78,3 ml,SD: 17,9). Die Unterschiede waren statistisch signifikant (p<0,01; eta2=0,61). Besonders deutlich waren die Unterschiede im resezierten Magenvolumen (A:490,2 ml; B 732,7 ml; C:1156,1 ml). Da statistisch keine Abhängigkeit zwischen BMI und Magenvolumen nachgewiesen w erden konnte, zeigt sich die Ungenauigkeit der Schlauchmagenmessung gegenüber der Messung des resezierten Magenvolumens. Ergebnisse der Gewichtsreduktion zeigen eine Abhängigkeit von der Kalibration des Magenschlauches und des resezierten Magen-Volumens. Der Gewichtsverlust beträgt im Gesamtpatientengut und zeigt ab dem 3. Postoperativen Jahr eine Tendenz zum Wiederanstieg des Gewichtes. Eine unterlassene Kalibration und ein Volumen von weniger als 500 cm3 für den entfernten Magen sind mit einem Gewichtsanstieg spätestens nach 2- 3 Jahre verbunden. Der Verlust von 20 BMI-Punkten wird nach 2 Jahren erreicht.
Schlussfolgerung: Die Schlauchmagenbildung ist ein restriktives Verfahren, dass bei einer Kalibration eines engen Magenschlauches (32 French) und einem resezierten Magenvolumen von mindestens 500 eine sehr gute Gewichtsreduktion erzielt, die sich bei dem EWL zwischen de Ergebnissen des Magenbandes und des Magenbypass bewegt. Durch Anpassung der Ernährungsgewohnheiten kann es wie bei allen pur restriktiven Verfahren zu einem Wiederanstieg des Körpergewichtes.
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Über 4 Millionen Menschen leben in Deutschland schätzungsweise mit chronischen Wunden. Aufgrund der demographischen Entwicklung unserer Gesellschaft ist mit einem weiteren Anstieg der zu nicht, oder nur zögerlich heilenden Wunden führenden Erkrankungen diabetisches Fußsyndrom, chronisch venöse Insuffizienz und pAVK auszugehen. Dennoch ist die moderne hydroaktive Wundbehandlung in Deutschland nicht flächendeckend etabliert. Gründe hierfür liegen unter anderem in dem unüberschaubaren Produktsortiment, der unzureichenden Vergütung vor allem im ambulanten Versorgungssektor und in der mangelhaften ärztlichen Ausbildung in Bezug auf Wundtherapie. Ein standardisiertes Wundbehandlungsschema erleichtert die stadiengerechte Anwendung moderner Wundauflagen und dient als nachvollziehbare Entscheidungsgrundlage in der Auswahl der erforderlichen Wundprodukte. Material und Methoden: Anhand eines Bogens werden vier Kriterien (Wundstadium, Wundexsudation, Wundtiefe und Wundinfektion) zur Beurteilung einer Wunde erfasst. Die fotographische Abbildung der verschiedenen Wundstadien erlaubt eine sichere visuelle Zuordnung durch den Therapeuten. Nach Analyse dieser S.E.T.I. Kriterien ergibt sich eine eindeutige stadiengerechte Produktzuordnung, die auch dem weniger geübten eine sichere Anwendung der verschiedenen Produktgruppen ermöglicht. Ergebnisse: Dieser Behandlungsstandard wurde zwischenzeitlich an 3 Kliniken der Maximalversorgung und in einem integrierten Versorgungsmodell zum diabetischen Fußsyndrom etabliert und stellt einen Bestandteil für ein weiteres IV Modell zur pAVK dar. Neben ökonomischen Vorteilen (reduzierte Lagerhaltungskosten, Straffung des Produktsortiments, günstigere Bezugskonditionen) lässt sich eine Verbesserung in der Behandlungsqualität, eine verkürzte stationäre Behandlungsdauer sowie eine vereinfachte Umsetzung einer sektorenübergreifenden Wundversorgung erzielen. Schlussfolgerung: Die Anwendung eines Therapiestandards für die stadiengerechte Behandlung chronischer Wunden ermöglicht eine Anwenderunabhängige gleich bleibend hohe Qualität sowie eine wesentlich vereinfachte Orientierung in dem Produktsortiment. Hierdurch wird weiterhin ein Beitrag zur Schnittstellenoptimierung zwischen dem stationären und ambulanten Versorgungssektor bei chronischen Wunden geleistet. Ein verbindlicher interdisziplinärer und interprofessioneller Wundbehandlungsstandard stellt eine unverzichtbare Qualitätssicherungsmaßnahme in der Wundbehandlung dar.
Einleitung: Am 16.12.06 wurde im Eurotransplant-Gebiet der MELD-Score (MELD) als Allokationsbasis zur Lebertransplantation (OLT) eingeführt. Ziel ist eine Reduktion der Sterblichkeit auf der Warteliste. Material und Methoden: 100 Patienten wurden in die prospektive Analyse der MELD-Allokation vom 16.12.06 bis 15.09.07 einbezogen. Ergebnisse: Aktuell warten 68 Pat., 28 Pat. wurden transplantiert, 4 Pat. sind auf der Warteliste (WL) verstorben (4%). Der mittlere MELD auf der WL beträgt 17,2 +/- 5,2 (7-28). Bei 12 Pat. liegt eine Standard-exception (SE) (n=10 HCC, n=2 metabolische Erkrankung) mit einem Match-MELD von 25,6 +/-2,06 vor (24-28). Die Todesursachen der vier auf der WL verstorbenen Pat. waren eine akute Varizenblutung (MELD 9), zwei kardiale Versagen (MELD 13, 18) und eine MRSA-Sepsis (MELD 29, NT-Status). Die 28 transplantierten Pat. hatte zum Zeitpunkt der Transplantation einen mittleren MELD von 27,66 +/- 5,1 Punkten (21 bis 40). 20 Pat. wurden aufgrund des Labor-MELD (28,4 +/- 5,3, 24-40) transplantiert, wobei 7 Pat. einen MELD über 30 aufwiesen. Die Wartezeit lag bei 11,55 +/- 5,3 Tagen. 8 Pat. erhielten bei SE bei HCC (MELD 24 +/- 0, 24) ein Organ nach einer Wartezeit von 320 +/- 9,7 Tagen. Aktuell leben 23 der 28 transplantierten Pat. Bei zwei verstorbenen Pat. war die Todesursache ein kardiales Versagen, bei zwei Patienten eine primäre Non-Funktion sowie ein septisches Multiorganversagen. Schlussfolgerung: Während der ersten Monate der MELD Allokation lag die Letalität auf der WL in unserem Zentrum bei 4%. Patienten mit einem mittleren MELD über 27 erhielten Organangebote und konnten nach kurzer Wartezeit transplantiert werden.
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Konventionelle Ösophagusresektionen gehen auch heute noch mit einer hohe Morbidität und Mortalität einher. Die Ergebnisse einiger Serien minimal-invasiver Ösophagusresektionen sind vielversprechend, aber kontrovers diskutiert. Material und Methoden: Im Rahmen einer Beobachtungsstudie werden seit Mai 2005 minimal-invasive thorakoabdominelle Ösophagektomien mit cervikalem Magenhochzug durchgeführt. Die operativen Parameter und der postoperative Verlauf werden prospektiv erfasst und jetzt retrospektiv ausgewertet. Ergebnisse: Seit Mai 2005 wurden 28 Patienten minimal-invasive ösophagektomiert, 3 transhiatal und 25 thorakoabdominell. Indikation waren Plattenepithelkarzinome bei 14 und distale Adenokarzinome bei 13 Patienten, bei einem Patienten eine langstreckige benigne Stenose. Die Tumorstadien waren UICC-IIa in 7, UICC-2b in 2 und UICC-III in 18 Patienten. 11 Patienten (41%) wurden neoadjuvant vorbehandelt. Die OP-Zeit betrug im Mittel 296 Min. +/- 46 Min., der intraoperative Blutverlust 110 ml +/- 131 ml. Ein abdomineller Operationsabschnitt wurde konvertiert (4%), thorakal war bisher keine Konversion notwendig. R-0 Resektionen wurde in 26/27 Patienten (96%) erzielt, die mittlere Anzahl entfernter Lymphknoten betrug 19. Die 30-Tage –Letalität war 0, die Krankenhausletalität 11%. Die Morbidität betrug 54% und beinhaltet 7 Anastomoseninsuffizienzen, 2 „Ösophago“-tracheale Fisteln, 1 Hiatushernie, 2 Recurrensparesen, 2 Pneumonien und 1 beatmungspflichtiges Delir. Drei Patienten (11%) wurden operativ revidiert (eine Fistel, eine Anastomoseninsuffizienz bei Magenschlauchnekrose, eine Hiatushernie). Schlussfolgerung: Nach Einführung der minimal-invasiven thorakoabdominellen Ösophagektomie werden die exzellenten Ergebnisse anderer minimal-invasiver Serien bisher nicht erreicht, entsprechen aber im Wesentlichen den Ergebnissen der konventionellen Technik. Abzuwarten bleibt, ob die Ergebnisse nach weiterer Abflachung der Lernkurve Verbesserungen aufweisen werden.
Meeting Abstract : Deutsche Gesellschaft für Chirurgie. 125. Kongress der Deutschen Gesellschaft für Chirurgie. Berlin, 22.-25.04.2008 Einleitung: Die Resektion von Lebermetastasen kolorektaler Karzinome stellt die einzige potentiell kurative Behandlungsoption dar. Wirksame Chemotherapeutika wie Oxaliplatin und Irinotecan sind in den Verdacht geraten durch histologische Veränderungen an der Leber das Resektionsausmass oder das Outcome von vorbehandelten Patienten zu gefährden.Die vorliegende Studie untersucht daher den Grad der Steatohepatitis bei Patienten mit kolorektalen Lebermetastasen in Abhängigkeit von der Chemotherapie. Material und Methoden: In einem Kollektiv von 100 konsekutiven Patienten (08/2002 bis 02/2006) (chemonaiv: n=32, 62,4 +/- 13,3 Jahre; neoadjuvante Chemotherapie: n=39, 62 +/- 10,2 Jahre und adjuvante Chemotherapie: n=29, 61,2 +/- 10,8 Jahre) wurde aus den intraoperativ gewonnenen Leberresektaten retrospektiv der NAFLD-Score nach Kleiner et al. (Hepatology 2005) erhoben. Zur morphologischen Beurteilung wurde die Hämatoxilin-Eosin-Färbung verwendet, während der Fibrosegrad anhand der Ladewig-Färbung und der Siderosegrad mittels der Berliner-Blau-Färbung bestimmt wurden.Anschließend erfolgte eine statische Analyse der Häufigkeit und Relevanz der Steatohepatitis in den einzelnen Gruppen im Hinblick auf Verlauf und Outcome der Leberresektion. Hierbei wurden multivariate Regression, Kruskal-Wallis-Test, chi2-Test oder Mann-Whitney-U-Test (p<0,05) verwendet. Ergebnisse: Im vorliegenden Patientengut zeigten 7 Patienten eine ausgeprägte NASH, während bei 69% der Patienten keinerlei Veränderungen im Sinne einer NASH vorlagen. Die subjektive Gesamtbeurteilung der Pathologen und der errechnete NASH-Score eine Übereinstimmung in 92%. (Cohen´s kappa 0,82; 95%-Konfidenzintervall [0,71-0,93]). Hinsichtlich des NASH-Score (p=0,462) oder seiner Komponenten konnten keine Unterschiede in Abhängigkeit vom Zeitpunkt der Chemotherapie (Chemonaiv/ neoadjuvant/ adjuvant) gefunden werden. Eine Analyse in Abhängigkeit der verwendeten Chemotherapeutika zeigte keine Unterschiede für den Gesamt-Score (p=0,897), jedoch signifikante Unterschiede für einzelne Komponenten: Portale Entzündung (p=0,045) und Vorliegen von Microgranulomen (p<0,001). Auch eine multivariate Analyse konnte weder den Einfluss von Substanz noch Zeitpunkt der Chemotherapie auf die Entwicklung einer NASH (p zwischen 0,35 und 0,92) nachweisen.Die Analyse des perioperativen Verlaufs (Transfusionsbedarf, Radikalität, Komplikationen, Liegedauer, postoperative Leberfunktion, Krankenhausmortalität) ergab keine signifikanten Unterschiede für Patienten mit oder ohne NASH. Schlussfolgerung: Das Vorliegen einer Steatohepatitis in unserem Patientengut war eine seltene Diagnose, die nicht in Zusammenhang mit Zeitpunkt der Chemotherapie oder verwendetem Chemotherapeutikum stand. Selbst das Vorliegen einer NASH scheint keinen relevanten Einfluss auf den perioperativen Verlauf oder das Outcome nach Leberresektion zu haben.
Das Modifizierte Vacciniavirus Ankara (MVA) entstand nach mehr als 500 Passagen des Chorioallantois Vacciniavirus Ankara (CVA) auf Hühnerembryofibroblasten. Mit der Passagierung ging u.a. der Verlust zahlreicher Vacciniavirus Virulenzfaktoren einher, wodurch MVA einen hochattenuierten Phänotyp aufweist. Bei mangelnder Pathogenität für humane Organismen verfügt das MVA jedoch über eine vollständig erhaltene Genexpression inklusive integrierter Fremdgene. Hierdurch bedingt ist MVA ein vielversprechender Kandidat nicht nur als Pockenimpfstoff der dritten Generation, sondern auch als Vektorvakzine gegen zahlreiche Infektionskrankheiten sowie in der Tumor-assoziierten Immunotherapie. Ein wesentliches Charakteristikum der Attenuierung von MVA ist seine fehlende Replikationsfähigkeit in humanen Zellen. Bislang ist es jedoch noch nicht möglich gewesen, die hierfür verantwortlichen genetischen Veränderungen eindeutig zuzuordnen. Vorangegangene Arbeiten wiesen darauf hin, dass sich der beschriebene Effekt zumindest teilweise auf die Zeitspanne zwischen zwei Vorläufern des MVA eingrenzen lässt. So zeigten sich humane HeLa Zellen für das CVA 152 permissiv, während gegenüber dem CVA 386 nur noch eine Semipermissivität bestand. Mit Hilfe einer vergleichenden Sequenzanalyse von CVA 152 und CVA 386 konnten verschiedene Deletionen identifiziert werden, deren Auftreten potentiell verantwortlich für den veränderten Phänotyp von CVA 386 ist. In diesem Zusammenhang wurden im Rahmen dieser Arbeit die Gene C12L, C14L, C15L und C16L der Deletion I und die Gene M1L, M2L und der OLR 037 der Deletion II charakterisiert. Durch Transfektion von Expressionsplasmiden wurden die entsprechenden Proteine bezüglich ihrer Expression und posttranslationalen Modifikation, sowie ihrer subzellulären Verteilung untersucht. So ließ sich für das Protein M2 eine posttranslationale N-Glykosylierung und die Lokalisation innerhalb des trans-medialen Golgiapparats nachweisen. Zusätzlich konnte eine Sekretion des M2 Proteins im Zellüberstand transfizierter 293T-Zellen gezeigt, sowie die bereits publizierte Inhibition der NF-:B-Aktivierung durch extrazellulär zugegebenes M2 Protein eingeleitet werden. Die Proteine C14 und C15 zeigten sich in der Laserscanmikroskopie mitochondrial lokalisiert; C16 dagegen kolokalisierte neben einer hauptsächlich intranukleären Verteilung zusätzlich mit F-Aktin. Ferner ergaben sich für die Proteine C14 und C15 erste Hinweise auf eine inhibitorische Funktion gegenüber Staurosporin-induzierter Apoptose.
Rezension zu: Gaye Suse Kromer: Obszöne Lust oder etablierte Unterhaltung? Zur Rezeption pornografischer Filme. Hamburg: Diplomica Verlag 2008. 232 Seiten, ISBN 978-3-8366-6730-2, € 39,50 Die Autorin befragte vier Männer und vier Frauen zu ihrer Pornografienutzung und ihren Rezeptionserfahrungen mit dem pornografischen Film Adrenalin (Italien 2003). Selbst nach Maßstäben einer Qualifikationsarbeit überzeugen die Überblickskapitel zu Rechtsgrundlagen, Definition und Geschichte des pornografischen Films, zur theoretischen und fachlichen Verortung nicht; diese werden später auch nicht auf die Interviews bezogen. Den Hauptteil stellen die Interviews dar. Der Autorin gelingt es nur teilweise – so bei der Entwicklung der Leitfragen –, stringente Kategorien für die Auswertung der qualitativen Interviews zu entwickeln. Die im Anhang des Buches abgedruckten Interviews stellen eine interessante Quelle für die Erforschung der Rezeption pornografischer Filme dar.
Im Rahmen der vorliegenden Arbeit wurde eine allgemein anwendbare Methode zur Identifizierung und Quantifizierung kleiner Moleküle mittels MALDI-TOF-MS entwickelt. Dabei wurden zahlreiche Analyten, wie unterschiedliche Arzneistoffe, Neurotransmitter und Lebensmittelinhaltsstoffe in verschiedenen Probenmatrizes analysiert. Bei den verwendeten Matrizes wurden mit a-Cyano-4-Hydroxy-Zimtsäure (CHCA) die besten Ergebnisse erzielt. Es zeigte sich jedoch, dass die Probenpräparation wichtiger war als die Wahl der Matrix, da auch mit anderen Matrizes bei optimierter Probenpräparation sensitive Messungen im niedrigen Massenbereich möglich waren. Insbesondere eine schnelle Trocknung des Probenspots, und damit verbunden die Bildung kleiner Kristalle, ist für die Analytik kleiner Moleküle hilfreich. Bei gleichzeitiger Verwendung geringer Matrixkonzentrationen und geringer Laserintensität konnte so der störende Matrixhintergrund minimiert werden. Eine noch stärkere Suppression der Matrixsignale bei gleichzeitiger Anreicherung der Analyten auf dem Probenspot konnte durch eine Dünnschichtpräparation (TLP) mit CHCA und Nitrozellulose erreicht werden. Allerdings war die TLP für eine automatische Quantifizierung kleiner Moleküle nur bedingt geeignet. Die für kleine Moleküle so wichtige Quantifizierung war durch Verwendung einer optimierten schnell trocknenden Dried Droplet Präparation (DDP) möglich. Die Kombination dieser optimierten DDP mit ausreichend aufsummierten Einzelschussspektren bei gleichzeitiger Verwendung eines internen Standards (IS) ermöglichte eine valide Quantifizierung mit guter Präzision, Linearität und Richtigkeit. Dabei erfüllten die quantifizierten Analyten die Vorgaben der FDA für Präzision und Richtigkeit. Diese Quantifizierungsmethode wurde an Mischungen unterschiedlicher Arzneistoffe, sowohl in Standardlösungen als auch in humanem Plasma, erfolgreich durchgeführt. Dabei genügte ein einziger interner Standard, um alle Arzneistoffe der Mischung schnell und sensitiv zu bestimmen (Bestimmungsgrenze 1-5 ng/ml). Weiterhin war es möglich, den Wirkstoff einer pharmazeutischen Tablette ohne aufwändige Probenvorbereitung schnell und genau zu bestimmen. Dass MALDI über eine hohe Salztoleranz verfügt, wurde bei der Bestimmung von Acetylcholin (ACh) und Cholin (Ch) in Mikrodialysaten bestätigt. Trotz des hohen Salzgehalts der Proben (~150 mM) war eine direkte Messung ohne vorherige Aufarbeitung möglich. Dabei lag die Nachweis- und Bestimmungsgrenze für ACh bei 0,3 bzw. 1 fmol/µl und für Ch bei 20 bzw. 100 fmol/µl. Nach den Standardlösungen wurden in-vivo Mikrodialysate aus dem rechten Striatum verschiedener CD1-Mäuse quantifiziert. Durch Verbindung der Dialysesonde mit einem MALDI-Spotter konnte außerdem die zeitliche Auflösung der Dialyse deutlich verbessert werden. Ein weiterer Anwendungsbereich stellte die Bestimmung von Melamin in Milch und Milchpulver dar. Nach einfacher Probenvorbereitung war es möglich, Melamin mit einer Bestimmungsgrenze von 0,25 ppm in Milchpulver bzw. 0,625 ppm in Milch direkt und schnell zu quantifizieren. Damit wurden die geforderten Grenzwerte von 1 ppm für Babynahrung bzw. 2,5 ppm für übrige Lebensmittel leicht erreicht. Als letzte Methode wurden verschiedene Inhaltstoffe in Energy Drinks bestimmt. Bei Verwendung von Theophyllin als IS konnte so neben Koffein auch Niacin und Pyridoxin erfolgreich und ohne Probenvorbereitung schnell quantifiziert werden. Zusammenfassend zeigt diese Arbeit, dass MALDI auch für die Analytik kleiner Moleküle gut geeignet ist. Neben der Identifizierung der Analyten war auch die Quantifizierung mit guter Linearität, Reproduzierbarkeit und Richtigkeit möglich. Dabei konnten mit der Standardmatrix CHCA verschiedenste niedermolekulare Analyten in unterschiedlichsten Probenmatrizes bestimmt werden. Im direkten Vergleich war die Sensitivität der vorgestellten MALDI-Methoden mindestens vergleichbar, wenn nicht gar besser als bestehende LC-MS-Methoden. Da auf den Einsatz einer LC verzichtet werden kann, ermöglich MALDI einen sehr viel höheren Probendurchsatz. Zudem war keine spezielle Matrix, besondere Geräte oder zeitaufwändige Probenvorbereitung und Präparation notwendig.
In der Arbeit wird Fuzzy-Regression als mögliche ökonometrische Analysemethode bei fehlerbehafteten Daten modelliert und erprobt. Dazu ist die interpretatorische Lücke zu schließen, die einerseits zwischen den Datenproblemen in empirischen Datensätzen und ihrer Modellierung als Fuzzy-Daten und andererseits zwischen der Modellierung der Fehlereinflüsse in den Fuzzy-Daten und den Aussagen und Analysen besteht, die auf der Basis einer Fuzzy-Regression über die vorliegenden Daten getroffen werden können. Da bereits eine Vielzahl von Ansätzen zur Fuzzy-Regression entwickelt wurden, wird als das Hauptproblem nicht die Modellierung der Fuzzy-Methoden als solcher gesehen, sondern vielmehr die fehlende Vorstellung über die mögliche Bedeutung der Fuzzy-Modellierungen im konkreten Anwendungsfall. Die Arbeit vollzieht deshalb im Sinne einer Machbarkeitsstudie die verschiedenen Schritte von den Fehlereinflüssen in wirtschaftsbezogenen Datensätzen und deren Modellierung als Fuzzy-Daten bis hin zur explorativen Analyse mit Fuzzy-Regression nach. Dabei werden für jeden der Schritte exemplarische Beispiele ausgewählt, um die Denkweise der Fuzzy-Modellierung auszuarbeiten und die Möglichkeiten und Grenzen der Methoden aufzuzeigen. Die Untersuchungen zeigen, dass vor allem die Fuzzy-Modellierung von Fehlereinflüssen in den Merkmalsdaten und die Beschreibung von gleichförmigen Strukturen in den Fehlereinflüssen durch Fehlerszenarien als Analyseinstrumente geeignet sind, da sie eine Grundlage für eine weitergehende Untersuchung der Fehlereinflüsse bilden. Als Ausblick auf ein Schätzmodell für Fuzzy-Regression bei Fehlern in den Daten werden abschließend einige Ansätze für die Einbettung des Regressionsproblems für Fuzzy-Merkmalsvariablen in die Verteilungsmodelle für Fuzzy-Zufallsvariablen vorgestellt, die auf der Konstruktion der Fehlerszenarien basieren.
Innerhalb der letzten 30 Jahre haben sich photoaktivierbare Verbindungen („caged compounds“) zu einem äußerst wertvollen Werkzeug entwickelt. Seit der erstmals publizierten Anwendung von lichtaktivierbarem ATP im Jahre 1978 durch Hoffman et al. konnten viele neue Erkenntnisse im Bereich der Physiologie, Molekularbiologie und Biochemie mit Hilfe von photoaktivierbaren Verbindungen gewonnen werden. Hierunter versteht man Substanzen, deren biologische Wirksamkeit temporär inaktiviert ist, jedoch durch Bestrahlung mit Licht wiederhergestellt werden kann. Die Inaktivierung wird durch spezielle, lichtreaktive Chromophore erreicht, sogenannten photolabilen Schutzgruppen („cages“). Der Einsatz dieser Technik zur Aktivierung von Nukleinsäuren eröffnet ein weites Feld an Anwendungsmöglichkeiten. So ist auf diese Weise eine orts- und zeitaufgelöste Kontrolle der Aktivität von z.B. Antisense-DNA, siRNA oder Aptameren durch Licht möglich. Während der vorliegenden Doktorarbeit konnten zwei neuartige photolabil geschützte Desoxythymidine als Phosphoramidite zum Einsatz in der automatisierten DNA-Synthese dargestellt werden. Hierfür wurden jeweils NDBF-OH bzw. pHP-OH in O4-Position der Nukleobase eingeführt. Es konnte gezeigt werden, dass sich die beiden Nukleoside nach ihrem Einbau in DNA mittels UV-Licht entschützen lassen. Die photolabilen Schutzgruppen besaßen jedoch nur eine geringe chemische Stabilität unter verschiedenen basischen Abspaltbedingungen und sind deshalb nicht für die automatisierte DNA-Festphasensynthese unter Standardbedingungen geeignet. Durch Homologisierung der NDBF-Gruppe mit einer zusätzlichen Methyleneinheit zu hNDBF-OH wurde eine verbesserte Variante synthetisiert, welche eine ausreichende Basenstabilität und hervorragende photochemische Eigenschaften aufweist. Wie im Arbeitskreis Heckel gezeigt werden konnte, ist mittels in O6-Position hNDBF-modifiziertem Desoxyguanosin sowohl die DNA-Festphasensynthese unter Standardbedingungen möglich, als auch die spätere Photolyse dieser Schutzgruppe bei einer Wellenlänge von 420 nm. Hierdurch eröffnet sich zum ersten Mal die Möglichkeit, bei Verwendung von beispielsweise NPP und hNDBF, photolabil geschützte Bereiche in Nukleinsäuren wellenlängenselektiv durch Licht unterschiedlicher Wellenlänge zu aktivieren. In einem weiteren Projekt wurden erfolgreich photoaktivierbare Varianten des bivalenten Fusionsaptamers HD1-22 getestet. HD1-22 besitzt zwei Aptamerdomänen, HD1 und HD22, welche jeweils an eine der beiden Exosites I bzw. II von Thrombin binden. Im konkreten Fall konnten wir die Blutgerinnungsaktivität von Thrombin unter Verwendung einer photolabil geschützten Aptamersequenz von vollständig aktiv zu komplett inaktiv modulieren: Vor der UV-Bestrahlung war lediglich die Exosite II durch die HD22-Domäne blockiert. Dies erlaubte keinerlei Bindung des natürlichen Antikoagulans Antithrombin III an Thrombin – weder durch Heparin vermittelt noch ohne Beteiligung von Heparin. Der Zugang zur Exosite I war hingegen nicht eingeschränkt, die Blutgerinnungsaktivität des Thrombins somit durch die Rekrutierung von Fibrinogen an die Exosite I vollständig aktiv und nicht durch Antithrombin inhibierbar. Durch lichtvermittelte Entschützung der HD1-Domäne konnte nun eine Inaktivierung der Exosite I erfolgen, welche durch die hohe Bindungsaffinität der HD22-Aptamerdomäne stärker ausfiel als bei der ausschließlichen Verwendung eines HD1 Aptamers. Die koagulative Wirkung des Thrombins wurde somit vollständig aufgehoben. Im dritten Teil dieser Arbeit wurde der Grundstein für die Entwicklung eines kovalenten, lichtaktivierbaren Thrombin-Thrombinaptamer-Reagenzes gelegt. Dieses könnte zur gezielten Thromboembolisierung bei bestimmten malignen Tumorerkrankungen eingesetzt werden, um das entartete Gewebe von der Blut- und damit Nährstoffversorgung abzuschneiden. Zudem könnte so möglicherweise während einer Tumorexzision die Freisetzung von metastasierenden Krebszellen unterbunden werden. Das Reagenz besteht aus der von Heckel et al. publizierten „ausschaltbaren“ Variante des HD1-Aptamers. Diese besitzt einen photolabil geschützten Gegenstrang. Solange die Schutzgruppe intakt ist, bindet das Aptamer an die Exosite I von Thrombin und verhindert auf diese Weise die Rekrutierung von Fibrinogen. Wird die Sequenz jedoch mit UV-Licht bestrahlt, so erfolgt die Entschützung des Gegenstrangs und durch die folgende Basenpaarung eine Inaktivierung des HD1 Aptamers. Hieraus resultiert die Freisetzung von aktivem Thrombin, welches direkt zur Ausbildung eines Thrombus führt. Durch die – ebenfalls photospaltbare – kovalente Anbindung des „ausschaltbaren“ HD1 an die Proteinoberfläche werden eine vorzeitige Dissoziation des Aptamers und damit eine vorzeitige Wiederherstellung der Proteinaktivität verhindert.
Ziel dieser Arbeit war es, zwei Atemtestverfahren in der Diagnostik der bakteriellen Fehlbesiedelung im Dünndarm bei Kindern mit Zystischer Fibrose miteinander zu vergleichen. Der moderne 13C-Xylose-Atemtest wurde dem bisher etablierten H2-Glukose-Atemtest gegenübergestellt. Dabei sollte zusätzlich die Suszeptibilität der CF-Patienten für eine IBF eruiert werden. Die Probanden absolvierten einen kombinierten 13C-Xylose-/H2-Glukose-Atemtest. Retrospektiv wurden zunächst die H2-Ergebnisse der einzelnen Probandengruppen analysiert und dann den maximalen PDR-, cPDR- und den DOB-Werten gegenübergestellt. Die Ergebnisse der aktuellen Studie sprechen für die Prädisposition der CF-Patienten, eine IBF zu entwickeln. Kliniker sollten aber bei der Interpretation der Atemtestergebnisse stets die beeinflussenden Faktoren, die vor allem die Erkrankung der Mukoviszidose mit sich bringt, berücksichtigen und therapeutische Konsequenzen vorsichtig umsetzen. So können die erhöhten Wasserstoffkonzentrationen im H2-Glukose-Atemtest bei CF-Kindern nicht ausschließlich einer IBF zugeschrieben werden. Die hohen Nüchternwerte sind auch Ausdruck der allgemeinen Maldigestion, Malabsorption und der intestinalen Motilitätsstörung, die bei diesen Patienten vorherrschen. Der 13C-Xylose-Atemtest lieferte in den Gruppen der Erwachsenen und Kinder ohne Zystische Fibrose repräsentative Ergebnisse, was für zukünftige Nutzung im Rahmen der Diagnostik einer IBF spricht. Bei heranwachsenden Kindern ist lediglich die altersabhängige endogene CO2-Produktion und orozökale Transitzeit zu berücksichtigen. Für die Diagnostik einer IBF speziell bei Patienten mit Mukoviszidose erscheint uns der 13C-Xylose-Atemtest nicht geeignet, was wir hauptsächlich der krankheitsspezifischen generellen Malassimilation, der Malabsorption und der intestinalen Motilitätsstörung zuschreiben. Wir beführworten daher aktuell weiterhin unter Berücksichtigung der ihn beeinflussenden Faktoren die Anwendung des H2-Glukose-Atemtests in der gastroenterologischen Diagnostik einer IBF wegen der einfachen, preiswerten und nichtinvasiven Anwendbarkeit. Weitere Studien sollen in Zukunft klären, ob der 13C-Xylose-Atemest trotz seiner hohen Kosten regelmäßig mit Nutzen im klinischen Alltag anzuwenden ist. Im Vergleich mit dem Goldstandard des Jejunalaspirates müssen Sensitivität und Spezifität des Isotopen-Atemtests in zukünftigen Studien erarbeitet werden.
Die Notwendigkeit der ipsilateralen Adrenalektomie als obligater Bestandteil einer Tumornephrektomie beim Nierenzellkarzinom wurde in der Literatur kontrovers diskutiert. Das Ziel der vorliegenden Studie war es, durch einen Vergleich von tumornephrektomierten Patienten mit und ohne Nebennierenbefall Parameter zu ermitteln, die eine präoperative Abschätzung des Nebennierenbefalls erlauben, und somit als Entscheidungshilfe zur Durchführung der Adrenalektomie im Rahmen einer Tumornephrektomie dienen können. In unserer Studie wurden insgesamt 250 Patienten mit Nierenzellkarzinom erfasst, die zwischen 1992 und 2001 in der Klinik für Urologie und Kinderurologie Prof. Dr. med. Dietger Jonas, Johann Wolfgang Goethe – Universität Frankfurt am Main operiert wurden. Dabei wurde in allen Fällen die radikale Tumornephrektomie nach Robson inklusive ipsilateraler Adrenalektomie durchgeführt. Alle Operationspräparate wurden im Senckenbergischen Institut für Pathologie Prof. Dr. med. M.-L. Hansmann, Frankfurt am Main untersucht und nach der 6. Auflage der TNM-Klassifikation in der von der UICC empfohlenen Weise eingestuft. In 9 der 250 Fälle (3,6 %) wurde ein Nebennierenbefall festgestellt. Statistisch signifikante Ergebnisse konnten für folgende Parameter ermittelt werden: · Präoperativer CT-Befund In der präoperativ durchgeführten CT wurden von 235 als unauffällig eingestuften Fällen 5 pathologische Nebennierenbefunde nicht erkannt (2,13 %). Von 15 als auffällig eingestuften Fällen wurden jedoch 4 als richtig pathologisch erkannt (26,6 %). Es ergaben sich für den Nachweis eines Nebennierenbefalls im CT eine Sensitivität von 44 %, eine Spezifität von 95,4 %, ein positiver prädiktiver Wert von 26,6 %, und ein negativer prädiktiver Wert von 97,8 %. · Nierentumorgröße Es zeigte sich ein Nebennierenbefall erst ab einer Tumorgröße von > 5 cm mit einer Wahrscheinlichkeit von 5,8 % (p = 0,035). · pTNM-Stadium Ein Nebennierenbefall ließ sich erst ab Tumorstadium pT 3a erkennen. Bei pT1- oder pT2-Tumoren war kein Nebennierenbefall festgestellt worden. Bei Patienten ohne Lymphknotenmetastasierung konnte ein Tumorbefall der Nebenniere in 2 von 224 Fällen (0,89 %) gefunden werden. Bei den Patienten mit Lymphknotenmetastasierung lag der Nebennierenbefall bei 3 von 12 Fällen (25 %) für die Nierentumoren mit pN1 und bei 4 von 14 Fällen (28,6 %) bei Nierentumoren mit pN2. Bei Patienten ohne Fernmetastasierung (230 Fälle) ließ sich in 3 Fällen (1,3 %) ein Nebennierenbefall aufweisen; bei vorliegender Fernmetastasierung (20 Fälle) lag der Anteil der befallenen Nebennieren mit 6 Fällen bei 30 %. · Tumorgrading Ein Nebennierenbefall war bei keinem der G1-Tumoren festgestellt worden. Bei 4,4 % der G2-Tumoren (6/136 Fällen) und bei 12,5 % der G3-Tumoren (3/24 Fällen) konnte ein Nebennierenbefall nachgewiesen werden. Da das Grading nur am Nephrektomiepräparat vorgenommen werden kann, spielt es als prädiktiver Parameter keine Rolle. · Infiltration benachbarter Strukturen 0,5 % (1/200 Fällen) der Patienten ohne und 16 % (8/50 Fällen) der Patienten mit einem Tumorthrombus in der V. renalis zeigten auch einen Nebennierenbefall (p = 0,000012). 2,9 % (7/240 Fällen) der Patienten ohne und 20 % (2/10 Fällen) der Patienten mit einer Infiltration in die V. cava zeigten einen Nebennierenbefall (p = 0,044). 14,5 % (9/62 Fällen) der Patienten mit Tumorinfiltration in die Nierenkapsel zeigten einen Nebennierenbefall; keiner der Patienten ohne Nierenkapselinfiltration zeigte einen Nebennierenbefall (p = 0,000002). Zusammenfassend lässt sich festhalten, dass eine ipsilaterale Adrenalektomie heutzutage keine obligate Komponente der Tumornephrektomie sein muß, sondern nur durchgeführt werden sollte, wenn folgende präoperative Bedingungen vorliegen: 1. auffällige präoperative bildgebende Beurteilung der Nebenniere durch Sonographie, Computertomographie oder ggf. Magnetresonanztomographie 2. Größe des Nierentumors > 5 cm unabhängig von der Pollokalisation 3. . Primärtumorstadium >= cT3a 4. CT-graphischer Nachweis von Lymphknoten- und/oder Fernmetastasen 5. CT-graphischer Nachweis einer vaskulären Invasion 6. CT-graphischer Nachweis einer Nierenkapselinfiltration 7. auffälliger intraoperativer Befund
Die ägyptische Al-Azhar Universität feierte in März des Jahres 1983 ihr tausendjähriges Gründungsjubiläum. Chronologisch ist dieses Jubiläum allerdings etwas umstritten. In Wahrheit sind seit der Gründung der Al-Azhar nämlich keine 1000, sondern bereits 1013 Jahre verstrichen. Die Bauarbeiten an der Al-Azhar Moschee hatten bereits im April 970 angefangen. Die tausend Jahre verstehen sich somit als Beginn des eigentlichen Studienbetriebs an der Al-Azhar, die als Institution einige Jahre älter ist. Schon im Jahre 1942 hatte eine 1000-Jahrfeier an der Al-Azhar abgehalten werden sollen. Laut islamischem Mondkalender waren in eben diesem Jahr 1000 Mondjahre vergangen, doch die Ereignisse des 2. Weltkrieges, in den ja auch Ägypten verwickelt war, machten jede Hoffnung auf dies bezügliche Feierlichkeiten zunichte. Die Al-Azhar-Universität nennt sich die älteste Universität der Welt, durchaus mit Recht. Wenngleich man zugeben muß, daß schon lange vor der Gründung der Al-Azhar, Schulen und Akademien für das Studium aller Wissensgebiete existierten, von denen die bedeutendsten gerade hier in Ägypten angesiedelt waren. Man denke nur an die altägyptische Akademie von On, welcher Ort später von den Griechen Heliopolis genannt wurde, oder an die berühmte antike Akademie von Alexandrien. Es ist somit kein Zufall, daß nach der Ausbreitung des Islam eben hier im Niltal das erste große islamische Wissenszentrum gegründet wurde. ...
Der vorliegende Beitrag untersucht die erste Einführung des Buddhismus in Tibet und die dabei durch die Konfrontation mit der Bön-Religion entstehenden religiösen und politischen Konflikte. Die Tatsache, dass es zwei herausragende Einführungsphasen des Buddhismus in Tibet gab, deutet auf die religiösen Kontroversen hin, die sich in diesem Land abgespielt haben müssen. Es ergeben sich folgende Fragen: Wie haben die Tibeter auf das Eindringen des Buddhismus reagiert? Wie sieht das Verhältnis von Abgrenzung und Aneignung aus? Wie gingen die buddhistischen Mönche mit der vorherrschenden Bön-Religion um? Welche Wirkungen hatte die religiöse Dynamik auf die politische, ökonomische und soziale Lage des tibetischen Raums? ...
Zusammenfassung und Ergebnisse Es ist noch zu früh, eine abschließende Bewertung der Entwicklung auf den Finanzmärkten während der letzten zwei Jahre vorzunehmen. In jedem Fall sind aber alle Regelungen auf den Prüfstand zu stellen. Das Aufsichtsrecht hat insgesamt seine Aufgabe, Finanzstabilität zu gewährleisten, nicht erfüllt. Wesentliche Schritte für eine grundlegende Reform sind: - ein striktes Verständnis des Aufsichtsrechts als Sonderordnungsrecht - eine drastische Reduktion der Komplexität der Rechtsvorschriften - die Internationalisierung und Europäisierung der Aufsicht - die Steigerung der Transparenz der Verbriefung einschließlich eines möglichen Zulassungsverfahrens und des Verbots bestimmter gefährlicher „Produkte“ - die vollständige Neuausrichtung der Bewertung von Finanzunternehmen und ihrer „Produkte“ („ratings“) - Die Schaffung geeigneter Regeln und Verfahren, um auch systemisch relevante Institutionen der Marktdisziplin, also ihrem Untergang, auszusetzen - Die Grundlage für kurzfristige Entscheidung über Fortführung, Zerlegung oder Abwicklung eines Instituts als Maßnahme der Gefahrenabwehr muss geschaffen werden. Ein Sonderinsolvenzrecht für Banken ist nicht angezeigt - Die Einbeziehung des menschlichen Verhaltens und der Persönlichkeitsstruktur der maßgebenden Personen in den Finanzinstitutionen
ZUSAMMENFASSUNG UND ERGEBNISSE (1) Die Schaffung des Europäischen Ausschusses für Systemrisiken stößt nicht auf durchgreifende rechtliche Bedenken. (2) Es ist nicht sicher, dass die Errichtung der neuen Europäischen Aufsichtbehörden ohne entsprechende Änderung des Primärrechts zulässig ist. (3) Es kommt entscheidend darauf an, welche rechtsverbindlichen Einzelweisungsbefugnisse tatsächlich den Behörden verliehen werden. (4) Die nach dem Kompromiss vom 2. Dezember 2009 noch verbliebenen Einzelweisungsbefugnisse der Behörden gegenüber Privaten und gegenüber nationalen Aufsichtsbehörden sind rechtlich kaum abgesichert. (5) Wenn die hoheitlichen Befugnisse weitgehend oder vollständig beseitigt werden, bestehen Bedenken im Hinblick auf die Geeignetheit und Erforderlichkeit der Einrichtungen. (6) Die weitreichenden Unabhängigkeitsgarantien sind nicht mit den Anforderungen demokratischer Aufsicht und Kontrolle zu vereinbaren. (7) Für die Einräumung von Unabhängigkeit ist nach deutschem Verfassungsrecht eine ausdrückliche Regelung in der Verfassung, wie in Art. 88 Satz 2 GG, erforderlich. (8) Die transnationale Kooperation von Verwaltungsbehörden bedarf zumindest dann einer gesetzlichen Ermächtigung, wenn faktisch verbindliche Entscheidungen getroffen werden.
Ziel der vorliegenden Arbeit ist es, Erkenntnisse über die Beeinflussung der Überlebensraten von Patienten mit Nierenzellkarzinom durch verschiedene Faktoren wie Tumorstadium und Tumorgröße, Differenzierungsgrad, Metastasierung und histologischer Subtyp zu gewinnen. Insbesondere soll die Frage geklärt werden, inwiefern die Prognose der Patienten von der Art der Diagnosestellung, also inzidentell oder symptomatisch, abhängt. Zu diesem Zweck wurden die Daten aller Patienten, die zwischen dem 01.01.1997 und dem 31.12.2005 in der urologischen Universitätsklinik in Frankfurt am Main mit der Verdachtsdiagnose eines Nierenzellkarzinoms radikal nephrektomiert bzw. teilreseziert worden sind, retrospektiv erhoben und analysiert. Die Patienten wurden entweder der asymptomatischen Gruppe zugeteilt, bei denen der Nierentumor zufällig diagnostiziert werden konnte oder der Gruppe bei der die Diagnose erst aufgrund einer auf den Nierentumor oder seine Metastasen hinweisenden Symptomatik gefunden werden konnte. Die mediane Nachbeobachtungszeit betrug 50 Monate (1 bis 112 Monate). Insgesamt konnte die Diagnose Nierenzellkarzinom bei 246 (68,72 %) Patienten zufällig gestellt, nur 112 (31,28 %) präsentierten sich mit darauf hinweisender Symptomatik. Inzidentelle Tumoren waren signifikant kleiner als Symptomatische (4,8cm versus 6,8cm) und wiesen signifikant häufiger ein niedriges Tumorstadium (p<0,001) und eine günstigere Differenzierung auf (p<0,001). Zusätzlich kam es seltener zu Fernmetastasen sowie zum Befall regionaler Lymphknoten. Hinsichtlich der Verteilung von Alter und Geschlecht ergaben sich keine Unterschiede zwischen den beiden Gruppen. Therapeutisch ergaben sich in bezug auf die durchführbare Operationsart signifikante Unterschiede. Während bei immerhin 36,18% aller Patienten mit inzidentellen Tumoren eine Teilresektion durchgeführt werden konnte, war solch ein nierenerhaltendes Vorgehen nur bei 6,25% aller Patienten mit symptomatischen Tumoren möglich. Die Überlebenswahrscheinlichkeit erwies sich als signifikant besser für Patienten mit inzidentell diagnostizierten Tumoren (p<0,001), genauso wie für Tumoren mit besserem Differenzierungsgrad (p<0,001), günstigerem Staging (p<0,001) sowie geringerer Größe (p<0,001). In multivariater Analyse bestätigten sich nur Diagnoseart, Differenzierungsgrad und das Vorhandensein bzw. Nichtvorhandensein von Metastasen als unabhängige prognostische Variablen. Patienten, bei denen der Tumor zufällig anhand einer Routineuntersuchung in völlig asymptomatischem Stadium gefunden werden kann, haben demnach eine signifikant bessere Überlebenswahrscheinlichkeit. Aus diesem Grund sowie aus der Tatsache heraus, dass bisherige Ergebnisse systemischer Therapien die Langzeitüberlebensrate der Patienten mit fortgeschrittenen Nierenzellkarzinomen meist nicht verbessern können, bleibt die Frage der Notwendigkeit einer Screeninguntersuchung weiter bestehen. Jede Möglichkeit einer frühzeitigen Diagnose sollte genutzt werden. Hier bietet sich insbesondere die Sonographie als kostengünstigstes und nicht invasives Verfahren an. Inwieweit die Empfehlung einer generellen und flächendeckenden Screeningmaßnahme sinnvoll ist, wird allerdings weiterhin anhand ihrer Kosteneffizienz beurteilt und kann deshalb beim Nierenzellkarzinom aufgrund der doch vergleichsweise geringen Prävalenz nicht ausgesprochen werden. Doch erscheint die Forderung sinnvoll, die Nieren im Rahmen abdominaler Sonographien aus nichturologischen Gründen immer mit zu untersuchen. Die kurze Zeit, die dies für den geübten Untersucher in Anspruch nimmt, ist tolerierbar; vor allem im Hinblick auf den Benefit, den diese Untersuchung für den Patienten haben kann. Ebenso sinnvoll und realistisch erscheint, dass jeder Urologe zumindest bei seinen Patienten in regelmäßigen Abständen die Nieren schallt oder es Ihnen zumindest als entgeltliche IGeL Leistung anbietet. Die Entdeckung eines Nierentumors in einem frühen asymptomatischen Stadium erscheint sowohl hinsichtlich der Therapie als auch ihrer Prognose am günstigsten zu sein.
Nach einer erfolgten Stammzelltransplantion im Rahmen einer Leukämie sollte in regelmäßigen Abständen der hämatopoetische Chimärismus untersucht werden, da ansteigende autologe Anteile einem Rezidiv häufig voran gehen. [33, 35-37] Es wurde in den letzten Jahren beschrieben [50, 52, 54, 55, 81], dass Sequenzpolymorphismen (SPs) als hochempfindliche Marker für die Chimärismusanalyse fungieren können. Durch sie würde eine deutlich höhere Sensitivität erzielt werden, als mit der bisher verwendeten Methode, die Short Tandem Repeats als Marker zur Diskriminierung von Spender und Empfänger benutzt. Ziel dieser Arbeit war es, die Proben von Kindern, die nach einer ALL eine Stammzelltransplantation erhalten hatten, und die bereits mit der STR-Methode untersucht worden waren, mit der RT-PCR-Methode in Hinblick auf die in der Einleitung gestellten Fragen, erneut zu analysieren. Es ist in 96 % der Empfänger-/Spenderpaare möglich unter den 29 ausgewähltenten SPs mindestens einen geeigneten Marker zu finden und sicherlich wäre es möglich noch weitere Sequenz-Polymorphismen hinzu zu nehmen, falls die Informativität der 29 verwendeten nicht ausreichend ist. Es konnte in fast allen Experimenten eine Sensitivität von 0,1 % erreicht werden, mit zunehmender experimenteller Erfahrung immer zuverlässiger, so dass man inzwischen ein Experiment, bei dem diese Sensitivität nicht erreicht wird, wiederholen würde. Durch eine Vereinfachung der Methode mit einem optimierten Primerscreening, universellen Standardreihen und dem Einsatz von einer definierten Menge DNA-Lösung, die zumindest über einen weiten Bereich unabhängig ist von der enthaltenen Konzentration, lässt sich eine Laborroutine entwickeln, die ähnlich zeitaufwändig ist, wie der jetzige Goldstandard, die STR-Methode. Allerdings ist die RT-PCR-Methode derzeit noch deutlich teurer. In dieser Arbeit zeigt sich, dass die Real-Time PCR mit Sequenz Polymorphismen als genetische Marker eine sehr sensitive Methode zur Erfassung autologer Anteile darstellt und in der praktischen Anwendbarkeit mit der bisherigen PCR-Methode mit Short Tandem Repeats zur Differenzierung vergleichbar ist. Häufig lassen sich autologe Signale früher detektieren. Dadurch werden auch mehr Patienten als gefährdet eingestuft. Vor allem Patienten, die zweimal oder öfter in Folge einen gemischten Chimärismus von größer als 0,5 % aufweisen (und sich nicht in der Phase eines abnehmenden Chimärismus befinden) müssen genau beobachtet und engmaschig kontrolliert werden. Bei einer ansteigenden Dynamik ist es häufig sinnvoll, eine Immuntherapie einzuleiten. Nur bei zwei unserer Patienten verschwanden die autologen Signale von alleine wieder. Bei 50 % der Rezidivpatienten und bei 2 der 3 Patienten, die abgestoßen haben, sieht man mit der RT-PCR-Methode früher autologe Signale. Es wäre jetzt in einem nächsten Schritt nötig, bei einem ausreichend großen Patientenkollektiv beide Methoden parallel in einer prospektiven Studie miteinander zu vergleichen.
Die Debatte um die Rolle des Nationalstaates und der Nation als Entität von politischer und ethischer Relevanz in Fragen globaler und sozialer Gerechtigkeit beschäftigt Wissenschaftler aus den Bereichen der Philosophie, Politik, Wirtschaft, Soziologie uvm. Der Politikwissenschaftler und Philosoph David Miller (Oxford) vertritt eine Theorie, die auf der "Nation" als einer eigenen, emergenten Entität aufbaut, die Miller als eine ethisch relvante Gruppe charakterisiert, die u.a. den Willen und das Recht zur politischen Selbstbestimmung hat. Die Welt, so Miller, stellen wir uns am besten als eine Welt der Nationalstaaten vor, in Fragen der gloablen und sozialen Gerechtigkeit existiere tendenziell zu Recht eine Bias zugunsten der eigenen Compatriots und der eigenen Nation. In dieser Magisterarbeit wird zunächst die metaethische Debatte in der Diskussion um Miller herum zwischen kosmopolitischen und kontextuell-relativistischen Theoretikern skizziert. Danach erfolgt eine Betrachtung von Miller Konzept der Nation und der nationalen Identität. Es wird weiterhin betrachtet, warum und wie Miller der Nation ethische Relevanz zuschreibt. Danach werden seine Gründe für ein Recht auf nationale Selbstbestimmung beleuchtet, seine Konzeption sozialer Gerechtigkeit untersucht und Millers Haltung zum Verhältnis des Nationalsstaates vs. der globalen Gemeinschaft betrachtet. Es wird zu dem Schluss gelangt werden, dass Millers liberaler Nationalismus argumentativ zu problematisch bleibt, um überzeugend die kosmopolitischere Position zu Fragen globalen Gerechtigkeit zurückzuweisen. Ebenso wird als unschlüssig erachtet, wie Miller aufgrund seiner eigenen Argumente eine ethische Bevorzugung von Compatriots aufrecht erhalten kann. Im Ausblick erfolgt ein Resümee sowie ein Vorschlag, die Debatte in Richtung transnational motivierter Ansätze hin fortzuführen.
Hintergrund: Die häufigsten infektiösen Ursachen für Durchfallerkrankungen sowohl im Kindes- als auch im Erwachsenenalter sind viraler Genese. Dabei werden Rota-, Noro-, Adeno- und Astroviren in absteigender Reihenfolge benannt. Die Diagnose der oft nosokomialen Infektionen erfolgt durch Virusnachweis in Stuhlproben. Material und Methodik: In dieser retrospektiven epidemiologischen Auswertung wurden anhand der Stuhlproben von Gastroenteritispatienten im Zeitraum 2000 – 2008 die Häufigkeitsverteilung der einzelnen Viren sowie saisonale Aspekte untersucht. Bestimmt wurden des Weiteren die Geschlechts- und die Altersverteilung der Patienten. Der überwiegende Anteil der eingesandten Proben entstammte der Universitätsklinik Frankfurt/Main; hinzu kamen Proben von einigen in näherer Umgebung liegenden Gesundheitsämtern, Krankenhäuser und Laborarztpraxen. Ergebnisse: Die laborchemische Effizienz beträgt ca. 10 – 20 %. In Deutschland ist die winterliche Rotavirusinfektion bei Kleinkindern die häufigste Ursache des Brechdurchfalls. An zweiter Stelle stehen im Wechsel Adeno- und Norovirusinfektionen, während Astrovirusinfektionen in den letzten Jahren selten geworden sind. Schlussfolgerung: In Übereinstimmung mit neuen Studien aus anderen Regionen wird belegt, dass Noroviren des Typ 2 heute einen wesentlichen Anteil bei der infektiösen Gastroenteritis stellen und – im Unterschied zu Rotaviren – vor allem ältere Menschen betroffen sind.
Die vorliegende Dissertationsschrift im Fachgebiet Musikpädagogik widmet sich dem heutigen Stand des Instrumentalunterrichts auf Blechblasinstrumenten und dessen möglicher Weiterentwicklung unter besonderer Berücksichtigung neuer methodischer Ansätze. Hierbei stehen interdisziplinäre Übungskonzepte zur Förderung einer ganzheitlichen Instrumentalpädagogik im Vordergrund, insbesondere unter systematischer Miteinbeziehung spezieller mundmotorischer logopädischer Übungen. Mit der Zielsetzung, gängige Unterrichtskonzepte zu untersuchen und potenziell innovative Methoden aufzuzeigen, war zunächst grundlegende Forschungstätigkeit notwendig, da musikpädagogische Forschung im deutschen Sprachraum bisher die Blechblasinstrumente so gut wie nicht mit einbezogen hat (Suppan, 1994: 431; Bastian, 1992: 128ff). Nach entsprechender Recherche und dem Erstellen eines ersten Studiendesigns erwies sich eine Eingrenzung der Untersuchung auf die Instrumentalpädagogik von Trompete, Horn und Posaune als sinnvoll. Entsprechend dem Untertitel dieser Studie zu Theorie, Empirie und Didaktik modernen Instrumentalunterrichts gliedert sich diese Schrift in drei Hauptteile. Der theoretische Teil der Arbeit erläutert die sogenannte Ansatzphysiognomie und stellt diese ausführlich dar. Hierbei werden auf die didaktische Vermittlung des Bläseransatzes, dessen Anatomie sowie die Elemente des orofazialen Systems in Bezug zu deren Funktion beim Spielen eines Blechblasinstruments eingegangen. Ebenso werden Pathologien und ihre Konsequenzen für das Erlernen eines Blechblasinstruments erörtert. Nach einer Betrachtung des Mundes als Quelle sensorischer-integrativer Funktion, erfolgt eine Einführung in die orofaziale Muskelfunktionstherapie mit ihren „myofunktionellen Übungen“. Für die klare bildliche Darstellung der Anatomie wurde ein separater, auch für „Nicht-Anatomen“ verständlicher, Bildband (Band 2 dieser Dissertationsschrift) verfasst. Der didaktische Teil dieser Arbeit widmet sich den aktuellen Lehrplänen und Lehrmitteln für den Instrumentalunterricht bei Trompete, Horn und Posaune. Hierfür wurde in einem ersten Schritt zunächst der Verbreitungsgrad von Anfänger-Instrumentalschulen für diese Blechbläser ermittelt. Für eine systematische und einheitliche Bewertung dieser Schulen war es dann in einem zweiten Schritt erforderlich, ein entsprechendes Bewertungsinstrument zu entwickeln, welches als der „Frankfurter Analysebogen für Instrumentalschulen (FAI)“ vorgestellt wird. Mit diesem Fragebogen wurden insgesamt 40 Instrumentalschulen für Trompete, Horn und Posaune analysiert und evaluiert (Band 3 dieser Dissertationsschrift). Zum Abschluss des Kapitels erfolgt eine Betrachtung der aktuellen VdM-Lehrpläne sowie des Jugendmusiker-Leistungsabzeichens der BDB-Bläserjugend. Im empirischen Teil werden im Wesentlichen die Ergebnisse und Implikationen der Studie "Moderner Instrumentalunterricht auf Blechblasinstrumenten" aus Sicht der Lehrkräfte sowie der Schülerinnen und Schüler dargestellt. Die Befragung von 140 Lehrkräften und 853 Schülerinnen und Schüler soll hierbei Antworten auf grundlegende Fragen der Didaktik im gegenwärtigen Blechbläserunterricht geben. Die interdisziplinäre Evaluationsstudie "Zur musikpädagogischen Bedeutung von myofunktionellen Übungen" eröffnet aufgrund ihrer Ergebnisse die Möglichkeit einer Weiterentwicklung der Methodik im Bereich der Blechbläserpädagogik.
Die Hodgkin/Reed-Sternberg Zellen des klassischen Hodgkin Lymphoms stammen von Keimzentrums-B-Zellen ab. Dennoch prägen sie fast keine B-Zell-spezifischen Gene aus, stattdessen ko-exprimieren sie Marker anderer hämatopoetischer Linien. Die Ursache für den Verlust des B-Zell-Phänotyps ist weitestgehend unbekannt, da die Transkriptionsfaktoren E2A und PAX5, die in reifen B-Zellen zur Aufrechterhaltung der Expression B-Zell-spezifischer Gene essentiell sind, von primären HRS Zellen ausgeprägt werden. Allerdings wird PAX5 im Vergleich zu normalen B-Zellen deutlich schwächer exprimiert. E2A wird durch direkte Interaktion mit dem inhibitor of DNA binding, ID2, negativ reguliert. ID2 besitzt eine bHLH-Struktur und dimerisiert mit Transkriptionsfaktoren. Da ihm jedoch die DNA-bindende Domäne fehlt, wird die Bindung der Heterodimere an die DNA verhindert und die Transkriptionsfaktoren somit inaktiviert. In hämatopoetischen Zellen scheint die ID2-Expression die B-Zell-Entwicklung und auch die Expression B-Zell-spezifischer Gene zu unterdrücken und stattdessen die Ausprägung von Genen anderer Linien zu unterstützen. In reifen B-Zellen wird ID2 während der Plasmazellentwicklung bei gleichzeitigem Verlust der Expression B-Zell-spezifischer Gene stark exprimiert. In der vorliegenden Arbeit konnte gezeigt werden, dass ID2, das in normalen B-Zellen nicht detektiert werden konnte, dagegen in allen HL-Fällen nicht nur auf RNA-Ebene, sondern auch auf Proteinebene stark exprimiert wird. Ko-Immunopräzipitation des E2A mit ID2 aus HL-Zelllinien zeigte die Interaktion und somit vermutlich auch die transkriptionelle Inaktivierung des E2A durch ID2, wodurch es zum Verlust der Expression B-Zell-spezifischer Gene kommt. Darüber hinaus wird PAX5 zusammen mit EBF durch E2A induziert. So führt die ID2-vermittelte E2A-Inaktivierung im HL vermutlich dazu, dass ID2 via EBF auch die Regulation von PAX5 beeinflusst. PAX5 spielt bei der Differenzierung eine duale Rolle, denn es aktiviert nicht nur B-Zell-spezifische Gene, sondern es unterdrückt auch die Gene anderer Linien. Demnach könnte ID2 auch an der Expression der nicht-B-Zell-spezifischen Gene im HL beteiligt sein. Darüber hinaus ist ID2 im HL durch die E2A-Inaktivierung via EBF auch möglicherweise an der schwächeren Expression des PAX5 im Vergleich zu normalen B-Zellen beteiligt. Obwohl das ID2-Protein in den HL-Zelllinien durch RNA-Interferenz erfolgreich reduziert werden konnte, zeigte sich allerdings weder eine Änderung der Proteinexpression der B-Zell-spezifischen Gene CD19 und CD79A noch der Gene anderer hämatopoetischer Linien GATA-3 und M-CSF-R. Unabhängig von seiner möglichen Beteiligung an der Dedifferenzierung der HRS Zellen im HL, spielt ID2 vermutlich auch eine weitere Rolle in der Pathogenese des HL. Verschiedene Interaktionen weisen darauf hin, dass ID2 auch an der Regulation des Zellzyklus beteiligt ist. Zum einen konnte in dieser Arbeit die Interaktion des ID2 mit dem HLH-Protein HEF1 zumindest in einer der HL-Zelllinien gezeigt werden. HEF1 ist ein Aktivator der Aurora Kinase 1, welche nach Aktivierung Gene phosphoryliert, die den Ablauf der Mitose begünstigen. Zum anderen konnte der negative Zellzyklusregulator p21Cip1 in HL-Zelllinien durch RNAi-vermittelte Reduktion des ID2-Proteins als ID2-Target-Gen identifiziert werden. Auch wenn die Interaktion mit RB, dem zur Familie der Pocket-Proteine gehörenden Schlüsselregulator des Zellzyklusverlaufs, in HL-Zelllinien nicht nachgewiesen werden konnte, zeigen die Ergebnisse dieser Arbeit, dass die aberrante ID2-Expression offenbar an der Veränderung des Zellzyklus im HL beteiligt ist. Sie lassen jedoch noch keinen endgültigen Schluss zu. Wie in dieser Arbeit gezeigt wurde, wird ID2 ebenfalls im analplastisch großzelligen T-Zell-Lymphom aberrant exprimiert. Auch eine Interaktion mit E2A, das auch in der T-Zell-Entwicklung eine Rolle spielt, konnte gezeigt werden. Nicht zuletzt scheint demnach ID2 auch in der Dedifferenzierung des ALCL ein wichtiger Faktor zu sein. ID2 wird im HL aberrant exprimiert und es konnte die Interaktion mit E2A in den HL-Zelllinien nachgewiesen werden, wodurch die transkriptionelle Aktivität des E2A vermutlich inhibiert wird. Auch wenn in Folge der RNAi-vermittelten Herunterregulation von ID2 in den HL-Linien weder eine Re-Expression B-Zell-spezifischer Gene noch eine Beeinflussung der Expression Marker andere hämatopoetischer Linien gefunden werden konnte, spielt ID2 vermutlich dennoch eine wichtige Rolle in der Dedifferenzierung der HRS Zellen im HL. Unabhängig davon konnte der negative Zellzyklusregulator p21Cip1 als ID2-Target-Gen identifiziert und eine Interaktion mit HEF1 gezeigt werden. Demnach ist ID2 möglicherweise nicht nur an der Dedifferenzierung, sondern auch an der Dysregulation des Zellzyklus im HL beteiligt und somit ein wichtiger Faktor in der Pathogenese des HL.
Diese Dissertation befasst sich mit der massenspektrometrischen Analytik von Membranproteinen. Diese gestaltet sich aufgrund der hydrophoben Natur der Proteine und der damit verbundenen schlechten Löslichkeit in wässrigen Puffersystemen als deutlich schwieriger als die Untersuchung löslicher Proteine. Einige weitere Probleme entstehen durch die konsequente Verwendung der Referenzprotease Trypsin zur Hydrolyse der Proteine. Sie spaltet ausschließlich Peptidbindungen nach basischen Aminosäuren, die naturgemäß in den unpolaren Helixbereichen der Membranproteine nur vereinzelt anzutreffen sind. Im Rahmen dieser Arbeit wurden auf weniger spezifischen Proteasen basierende Protokolle zur Analyse von ganzen Membranproteomen entwickelt, welche einige der ursprünglichen Probleme umgehen oder zumindest vermindern. Die Proteolysereaktion fand in Anwesenheit von Methanol statt, welcher die Membranstruktur destabilisiert und so die Zugänglichkeit der in die Membran eingebetteten Proteinteile für das Enzym erhöht. Zusätzlich erhöhte sich dadurch die Löslichkeit gebildeter hydrophober Peptide im Puffer. Das neue Protokoll wurde an Bacteriorhodopsin, einem geläufigen Modellsystem für α helikale Membranproteine, erfolgreich etabliert. Bei Verwendung der Proteasen Elastase und Pepsin konnten nach nLC-Trennung und MALDI-MS/MS deutlich mehr Peptide des Membranproteins signifikant identifiziert werden, als es mit Trypsin möglich gewesen ist. Auch qualitativ ergaben sich Unterschiede zwischen beiden Enzymen. Mit den alternativen Enzymen ließen sich nicht nur die hydrophilen peripheren Proteinabschnitte nachweisen, sondern auch zahlreiche Peptide aus den hydrophoben Transmembranbereichen. Das am Modellprotein etablierte Elastase-Protokoll konnte problemlos auf die Analyse des komplexeren Membranproteoms von Corynebacterium glutamicum transferiert werden. So konnten ca. 150 verschiedene Proteine identifiziert werden, darunter auch zahlreiche Membranproteine. Die erzeugten Peptidmischungen wurden nicht nur mittels nLC-MALDI-TOF/TOF sondern auch mit einer nLC-ESI-Orbitrap-Plattform analysiert. Anhand einer detaillierten Analyse der physikochemischen Eigenschaften der entstandenen Peptide konnte gezeigt werden, dass der dabei beobachtete Vorteil des ESI-Instrumentes zu großen Teilen auf die bessere Detektion aliphatischer Neutralpeptide zurückzuführen war. Diese werden bei der MALDI vornehmlich aufgrund der schlechteren Ionisation bei Verwendung der Standardmatrix α-Cyano-4-Hydroxyzimtsäure diskriminiert. Ein weiterer Vorteil des verwendeten ESI-Gerätes ist seine bessere Massengenauigkeit durch den hochauflösenden Orbitrap-Massenanlysator. Wurden die MALDI-TOF/TOF-Fragmentierungsdaten durch, auf einem zweiten Instrument gemessene, genaue MALDI-Orbitrap-Vorläufermassen supplementiert, konnten über 30% mehr Peptide signifikant identifiziert werden. Die gesammelten Daten konnten zur Erhebung einiger Statistiken über Elastase und Pepsin herangezogen werden. Erstmals wurde eine umfassende Untersuchung der Spaltspezifität von Elastase vorgenommen. Das Enzym hydrolysiert in ca. 82% der Fälle nach den kleinen hydrophoben Aminosäuren Ala, Val, Ile, Leu, Ser und Thr. Diese Spezifität ist für proteolytische Schnitte innerhalb der hydrophoben Helixbereiche von Membranproteinen äußerst vorteilhaft. Sie reicht aus, um Peptide Mass Fingerprinting an Einzelproteinen durchzuführen, wie exemplarisch am Modellprotein Bacteriorhodopsin gezeigt wurde. Die für Pepsin erhaltene Spezifität ist hingegen zu undifferenziert für solche Experimente, weshalb hier MS/MS-basierte Strategien vorzuziehen sind. Weitergehende Verbesserungen für Datenbanksuchen mit weniger spezifischen Proteasen wurden vorgeschlagen. Hierzu wurde erstmals eine größere Fragmentierungsstatistik eines nichttryptischen Datensatzes auf einem MALDI-Instrument erstellt, deren Aussage zur Verifizierung von Suchergebnissen in die Algorithmen implementiert werden kann. Beim Einsatz weniger spezifischer Proteasen erhöht sich im Vergleich zu Trypsin die entstehende Peptidkomplexität. Zur Kompensation dessen wurde eine Fraktionierung mittels Off-gel IEF vor der nLC-MALDI-Analyse etabliert. Zwecks direkter Kompatibilität zur nLC wurde ein Off-gel IEF-Protokoll ohne die Probeninjektion störendes Glycerol entwickelt. So ließ sich die dreifache Menge an Peptiden nachweisen, als mit ausschließlich eindimensionaler nLC-Trennung. In Verbindung mit den durch Trypsin erzielbaren Resultaten lassen sich mit den weniger spezifischen Enzymen viele Membranproteine umfassender charakterisieren, da zusätzlich die hydrophoben Transmembranbereiche und somit mehr Informationen für die Analytik zugänglich sind. Der gezielte Einsatz von alternativen Enzymen verbessert die momentane Situation in der Membranproteom-Analytik deutlich und führt diese einen weiteren Schritt an die Analytik löslicher Proteine heran.
Als Teil der Atmungskette des hyperthermophilen Bakteriums Aquifex aeolicus besteht die NADH:Ubichinon-Oxidoreduktase aus 13 Untereinheiten, die durch 24 unterschiedliche Gene codiert werden. Im Rahmen dieser Arbeit wurde für den massenspektrometrischen Nachweis dieser Untereinheiten nach der Aufreinigung des Komplexes eine SDS-PAGE durchgeführt, an die sich eine tryptische Proteolyse und eine Messung per MALDI MS und MS/MS anschlossen. Mit dieser analytischen Strategie war es möglich, jede nicht-homologe Untereinheit nachzuweisen und 20 von 24 genombasierten Isoformen eindeutig zu identifizieren. Selbst kleine bzw. sehr hydrophobe Untereinheiten mit vielen Transmembranhelices konnten mit Hilfe dieser Methode analysiert werden. Die hohe Anzahl an präsenten, unterschiedlichen Isoformen und die vorherrschenden Verunreinigungen durch Fremdproteine (z.B. ATP-Synthase) könnten Indizien dafür sein, dass bis jetzt keine hinreichend stabile und reproduzierbare Enzympräparation gelungen ist, um eine Kristallstrukturanalyse durchzuführen. Im Allgemeinen kann der Ablauf eines solchen Proteomics-Experiments in drei Teile gegliedert werden: die Auftrennung eines Protein- oder Peptidgemischs zur Verringerung der Probenkomplexität, die Identifikation des Proteins per Massenspektrometrie und die damit verbundene bioinformatische Datenanalyse. Neben chromatographischen Methoden ist die Elektrophorese in Polyacrylamidgelen immer noch das am häufigsten angewandte Trennverfahren im Proteomics-Bereich. Vor der MS-Messung werden die aufgetrennten Proteine in der Regel direkt in der Gelmatrix verdaut. Die Qualität der Ergebnisse wird stark durch Proteinmenge und die auftretenden Probenverluste beeinflusst. Diese werden beispielsweise durch eine unzureichende Peptidextraktion aus dem Gel hervorgerufen. Im Rahmen dieser Dissertation wurde ein neues Gelsystem entwickelt, dass vor allem für die Proteolyseeffizienz, die Peptidextraktion und somit auch für die anschließende massenspektrometrische Messung von Vorteil ist. Das Monomer Acrylamid wird hierzu mit den beiden Quervernetzern N,N-Methylenbisacrylamid (MBA) und Ethylenglykoldiacrylat (EDA) polymerisiert. Es entsteht ein Gel, dessen Poren durch die basische Hydrolyse der Esterbindungen des EDAs vergrößert werden können, ohne die dreidimensionale Grundstruktur des Gels zu zerstören.   Die gemischten Gele mit MBA und EDA als Crosslinkern sind sowohl für Tris-Glycin- als auch Tris-Tricin-Puffersysteme einsetzbar. Die Evaluierung der Daten erfolgte meist gegen ein Standardgel mit T= 14% und C= 2,6%. Durch eine experimentell ermittelte Anpassung der Mischgele auf T+10% und C+45% mit einem MBA/EDA-Verhältnis von 0,5 verhalten sich die beiden Gelsysteme empirisch gleich und zeigen eine übereinstimmende elektrophoretische Trennung und Auflösung. Es gibt keine wesentlichen Nachteile in Bezug auf die Handhabung, die elektrophoretische Trennung und die anschließenden Analysen und Techniken, solange diese in sauren bis leicht basischen pH-Bereichen durchgeführt werden. So wurde das gemischte Gelsystem sowohl bei einer 2D IEF/SDS-PAGE als auch bei einem Western Blot-Experiment angewendet und für vollständig kompatibel befunden. Die gemessenen MS-Daten profitieren im Fall von Trypsin und Elastase erheblich von der besseren Zugänglichkeit des Enzyms zum Substratprotein und der verbesserten Peptidextraktion. Die Gelaufweitung führt zu signifikant besseren Ergebnissen, die größtenteils auf höhere S/N-Werte zurückzuführen sind. Die Signalintensitäten der Peptide sind um den Faktor 5 besser als die des Referenzgels. Der Nachweis von je 1 pmol der Proteine BSA, Serotransferrin und Alkoholdehydrogenase profitiert stark von den zusätzlich erhaltenen Daten, da die Zunahme an identifizierten Peptiden bei der PMF-Suche im Bereich von 40 bis 80% liegt. Auch bei geringen Proteinmengen wie 250 bzw. 50 fmol BSA ist die Anzahl der zugeordneten Signale um den Faktor 2-3 besser. Der in-Gel Verdau von 1 pmol Bacteriorhodopsin mit Elastase zeigt ebenfalls einen Anstieg der Peptidsignale um 60% im Vergleich zum Referenzgel. Da die Proteine im Gel alle mit kolloidalem Coomassie Brilliant Blue angefärbt wurden, kann davon ausgegangen werden, dass sich die guten MS-Ergebnisse auf jede mit diesem Farbstoff visualisierte Probe übertragen lassen. Für den Fluoreszenzfarbstoff RuPBS trifft dies ebenso zu, insgesamt wurden aber weniger Peptide als bei kolloidaler Coomassie Brilliant Blue-Färbung detektiert. Dementsprechend handelt es sich bei Acrylamidgelen mit MBA/EDA-Vernetzung um ein vielversprechendes alternatives Gelsystem, dass auf eine Vielzahl anderer Methoden angewendet werden kann.
Die vorliegende Arbeit analysierte die Behandlung von Patienten mit Infektionserkrankungen am Zentrum der Zahn-, Mund- und Kieferheilkunde des Klinikums der Johann Wolfgang Goethe-Universität, Frankfurt am Main (Carolinum). Dabei wurde vor allem untersucht, welche Auswirkungen die Reduzierung von Personalressourcen speziell für die Behandlung dieser Patienten ab dem Jahr 2000 hinsichtlich der Betreuung und Versorgung hatte. Die Studie war retrospektiv angelegt und wertete Daten aus den Jahren 1998 bis 2002 aus. Hierfür wurden alle im Archiv lagernden Karteikarten herangezogen und die Daten in eine dafür entwickelte FilemakerPro©-Datenbank übertragen. Im Untersuchungszeitraum nahmen 940 Patienten mit Infektionskrankheiten etwa 3700 Besuche wahr. Regelmäßig erschienen 25% der Patienten, auf sie entfielen 60% aller Besuche. Diese Gruppe wurde einer näheren Betrachtung unterzogen: Die Auswertung der erhobenen Daten zeigte, dass das Ziel der Absenkung der Patientenzahlen und die Anzahl der Behandlungstermine erreicht werden konnte, die systematische Betreuung der Patienten sich jedoch verschlechterte. Der Anteil der sanierten Patienten sank von 34% auf 18% ab, die Zahl der unsystematisch behandelten Patienten verdreifachte sich dagegen von 1999 auf 2000 und blieb bei diesem hohen Wert. Vorsorgebehandlungen nahmen maximal ein fünftel aller Behandlungen ein, mit abnehmender Systematik sank dieser Anteil gegen null. Begünstigender Faktor für eine Sanierung waren ein erstelltes OPG (ersatzweise ein Zahnfilmstatus) und die Erstellung einer Behandlungsplanung. Das Vorhandensein eines OPGs erhöhte aber nicht die Wahrscheinlichkeit für eine folgende Behandlungsplanung. Patienten die an das Carolinum von außerhalb überwiesen wurden, hatten eine größere Chance auf eine Sanierung. Letztlich wurden nur 4% aller regelmäßig erschienenen Patienten systematisch mit Recall betreut, zahnärztlich saniert wurden insgesamt jedoch 30% der behandelten Patienten. Entgegen allgemeiner Annahmen waren kurzfristig abgesagte oder nicht eingehaltene Termine die Ausnahme.