Universitätspublikationen
Refine
Year of publication
- 2012 (668) (remove)
Document Type
- Part of Periodical (125)
- Report (95)
- Article (92)
- Doctoral Thesis (84)
- Book (78)
- Review (42)
- Contribution to a Periodical (34)
- Bachelor Thesis (25)
- Working Paper (25)
- Conference Proceeding (24)
Language
- German (668) (remove)
Is part of the Bibliography
- no (668)
Keywords
- Deutschland (10)
- Europa (5)
- Schmerz (5)
- China (4)
- Frankreich (4)
- Gewebedurchblutung (4)
- Gewebetemperatur (4)
- Goethe-Universität Frankfurt am Main. Fachbereich Humanmedizin (4)
- Infrarot (4)
- Recht (4)
Institute
- Präsidium (144)
- Gesellschaftswissenschaften (105)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (74)
- Geschichtswissenschaften (47)
- Medizin (47)
- Rechtswissenschaft (37)
- Physik (31)
- Wirtschaftswissenschaften (30)
- Neuere Philologien (26)
- Biowissenschaften (20)
Vielfältige Einschnitte im Rentensystem haben die Bedeutung der privaten Altersvorsorge in den vergangenen Jahren massiv erhöht. Neben Immobilienbesitz, Lebensversicherungen und staatlich geförderten Programmen zur privaten Vorsorge hat sich inzwischen auch die eigenverantwortliche Altersvorsorge mit Wertpapierdepots etabliert, so dass die Anzahl privater Depots in den letzten 25 Jahren von 8,0 auf 27,9 Millionen gestiegen ist. Vor diesem Hintergrund ist die Frage von zentraler Bedeutung, wie gut Anleger ihr Geld investieren.
Die Rechnung kommt immer zum Schluss – und sie zu bezahlen, macht in der Regel keine Freude. Wenn wir aber schon eher ungern bezahlen, soll die Zahlungsmethode selbst wenigstens einfach, überall verfügbar und sehr sicher sein. Insbesondere die Sicherheit ist beim Bezahlen im 21. Jahrhundert ein wichtiges Thema, zu dem es interdisziplinäre Forschungsansätze aus Wirtschaftswissenschaften, Informatik und Recht in einem von dynamischer Entwicklung geprägten Umfeld gibt.
Die anaerobe Fermentation beschreibt den Abbau organischen Materials unter Ausschluss von Sauerstoff und setzt sich aus vier Prozessphasen (Hydrolyse, Acidogenese, Acetogenese und Methanogenese) zusammen. Im Rahmen dieser Arbeit konnte die Aufteilung dieser vier Prozessphasen auf die beiden Stufen eines zweistufigen zweiphasigen Biogas-Reaktors genau bestimmt werden. Die Aufteilung ist von entscheidender Bedeutung für zukünftige Arbeiten, da dadurch genau festgelegt werden kann, welche Stoffe bei den Messungen und bei der Modellierung berücksichtigt werden müssen.
Im Jahre 2002 wurde von der IWA Taskgroup das ADM1-Modell, welches alle vier Prozessphasen der anaeroben Fermentation berücksichtigt, veröffentlicht. In der vorliegenden Arbeit wird ein räumlich aufgelöstes Modell für die anaerobe Fermentation erarbeitet, in dem das ADM1-Modell mit einem Strömungsmodell gekoppelt wird. Anschließend wird ein reduziertes Simulationsmodell für acetoklastische Methanogenese in einem zweistufigen zweiphasigen Biogasreaktor erstellt. Anhand von Messdaten wird gezeigt, dass der Abbau von Essigsäure zu Methan innerhalb des Reaktors durch das Simulationsmodell gut wiedergegeben werden kann.
Anschließend wird das validierte Modell verwendet um Regeln für eine optimale Steuerung des Reaktors herzuleiten und weiterhin wird mit Hilfe der lokalen Methanproduktion die Effektivität des Reaktors bestimmt. Die erlangten Informationen können verwendet werden, um den Biogas-Reaktor zu optimieren.
Mit den Krankheiten häuft sich im Alter auch die Zahl der einzunehmenden Medikamente. Das bringt viele Probleme mit sich. Das Institut für Allgemeinmedizin der Goethe-Universität untersucht in enger Kooperation mit der Universität Maastricht die Folgen der Multimedikation und entwickelt gemeinsam mit Hausärzten Strategien, um unerwünschte Wirkungen zu vermeiden.
Wollten Sie immer schon das Geheimnis des grünen Geburtszimmers ergründen und damit französischen Einflüssen auf das Taufzeremoniell an den Höfen Savoyens und Burgunds auf die Spur kommen; haben Sie sich immer schon die Frage nach den Gründen für die Attraktivität der officiers de bouche am französischen und burgundischen Hof gestellt; interessiert Sie die Darstellung des Hofklerikers in den Werken des Johannes von Salisbury; bläst Sie ein Thema wie "Trompes et tromperie à la cour d’après Eustache Deschamps" voll an, und fürchten Sie, ohne Kenntnis der Inszenierung von Hofkultur im "Roman de la Violette" des Gerbert von Montreuil nicht mehr mitreden zu können? (Rezensent als gebürtiger Kölner hat dank der Lektüre immerhin erstmals von der literarischen Existenz des Hofs eines Herzogs Milo in Köln erfahren.) Wenn ja, dann greifen Sie zu diesem Band, der Ihnen all das und noch viel mehr bietet. Da bestellt ein jeder der rund 30 Beiträger – es handelt sich um die Akten einer im September 2008 in Paris und Versailles veranstalteten Tagung – sein Forschungsgärtlein, und ein jeder tut’s auf seine Weise: Das reicht vom Recyceln eigener Forschungen bis hin zu Substantielles offerierenden, aus Handschriften und Archivalia geschöpften Studien. Es ist halt so wie stets bei solchen Kongressen und den daraus hervorgehenden Publikationen: Am Ende findet der Leser Produkte von Dünn- und Dickbrettbohrern zwischen zwei Buchdeckeln vereint, und es ist an ihm, aus der im Gesamt non multum , sed multa ausbreitenden Fülle von Spezialthemen das ihn Interessierende herauszufiltern und daran die kritische Sonde anzulegen. Dass auch Agostino Paravicini Bagliani, eigentlich um klare Urteile nicht verlegen, in seiner Zusammenfassung konsequent keinen Autor namentlich und wertend anführt, lässt sich nachvollziehen: Zum einen kann man in solcher Funktion nicht als Oberzensor Noten verteilen, zum anderen – und dies gilt dann auch für den Rezensenten – bleibt jeder Versuch, die Beiträge einzeln zu würdigen und zu verorten, von vornherein schlicht aus Platzgründen zum Scheitern verurteilt, erforderte doch allein die bloße Wiedergabe des Inhaltsverzeichnisses (hier S. 655–658) schon mehrere Seiten. Mithin beschränke ich mich auf die Darlegung von Grundsätzlichem, von sich in den Aufsätzen wiederholt abzeichnenden Linien und Tendenzen und damit auf das generelle Profil des Bandes; einzelne Autoren finden allenfalls Erwähnung, wenn ihre Studien mir in solchem Kontext exemplarisch erscheinen. ...
Was hat dieses Buch über einen wenig bekannten Herzog von Bourbon, von dem selbst die französische Geschichtsschreibung bislang eher den Eindruck einer "personnalité parfois effacée" (S. 218) vermittelte, einem deutschen Publikum – und das gilt selbst für die kleine Zunft der Mittelalterhistoriker – schon groß zu sagen? Allenfalls Johanns II. (1456–1488) im Obertitel angesprochene Konfrontation mit Ludwig XI. lässt vielleicht etwas aufmerken, doch gerade dieser König inszenierte so viele Prozesse gegen adelige Gegner (vgl. S. 234 Anm. 2; dem Verfahren gegen Ludwig V. Luxemburg, Graf von St-Pol, galten in den letzten Jahren gleich mehrere Arbeiten: S. 2 Anm. 5), dass man geneigt ist, die Studie nicht zur Kenntnis zu nehmen, denn: "Noch ein Prozess mehr oder weniger, was soll’s?" Doch dieser Prozeß macht, wie noch darzulegen, schon einen erheblichen Unterschied aus; zudem rührt er bei aller spezifisch französischen Grundierung an grundsätzlichen Fragen der Souveränität der Krongewalt und deren Verhältnis zu den Fürstentümern; Fragen, die, was die Machtgewichtung anbelangt, zwar unter eher umgekehrten Vorzeichen, so doch prinzipiell in ähnlicher Weise das deutsche Spätmittelalter durchziehen – Kenntnisnahme ist mithin durchaus angesagt. Zudem liefert Mattéoni einmal mehr den Nachweis, wie ertragreich eine (eigentlich nicht mehr so) neue politische Geschichtsschreibung sein kann, die etwa die Sakralisierung von Herrschaft integral einzubeziehen weiß. Und dieses Thema wird obendrein genau an der rechten Stelle einer überlegten Gesamtkonzeption platziert. ...
Lange ist es noch nicht her, da klagte Werner Paravicini in seiner Besprechung der Biographie Ludwigs XI. von Jean Favier, dass dieser Herrscher seit einigen Jahrzehnten in recht dichter Folge mit beleg- und anmerkungslosen Arbeiten im Stil der "haute vulgarisation" bedacht werde (Kendall, Gaussin, Bordenove, Heers, Gobry und eben Favier), ein wissenschaftlichen Ansprüchen genügendes Werk seit dem 1928 von Pierre Champion vorgelegten dagegen fehle (Francia 30/1 [2003], S. 376f.). Und nunmehr erneut ein Buch, das sich nahtlos in diese Reihe fügt und obendrein den Blickwinkel sogar noch bewusst verengt: Der Verfasser konzentriert sich ausschließlich auf die Person Ludwigs und will darüber hinaus keine Zeit und Welt erschließen; er beschränkt sich auf die Darstellung dessen, was den Herrscher nach seinem Dafürhalten – bis auf Jagd, Tiere und Musik – allein interessierte: "Louis se passionnait pour le pouvoir, la guerre et la politique, il en sera donc question presque à chaque page" (S. 10). ...
Bericht der Organisatoren: Die Tagung wollte ein Zeichen setzen: ein Zeichen, dass es geboten sei, sich erneut der Cotton Genesis und ihrem ausdrücklichsten mittelalterlichen Nachfahren, den Schöpfungsmosaiken der Vorhalle von San Marco in Venedig, zuzuwenden. Die Diskussion dieser Verbindung von frühchristlichen Illuminationen, die nur noch in wenigen verkohlten Fragmenten überliefert sind, mit den mittelalterlichen Mosaiken ist seit der Entdeckung durch Johan Jakob Tikkanen 1889 geführt worden. Sie kam 1986 mit der Edition der Cotton Genesis durch Kurt Weitzmann und Herbert Kessler zu einem vorläufigen Abschluss. Die Mosaiken erschienen als weitgehend getreue Kopie der Buchmalereien der Handschrift, die dabei allein redaktionelle, aber keine konzeptionelle Veränderungen durch die Mosaizisten erfahren hätten...
Die Erziehung und Bildung im Bahá’í-Sinne geht von der Einheit und Harmonie zwischen dem Menschen und dem ganzen Sein aus. Damit diese Einheit und Harmonie und dadurch das Glück im Leben des Individuums Realität wird und eine tief humanistische Weltgemeinschaft entsteht, muss der Mensch ganzheitlich von einem wohldurchdachten pädagogischen System erzogen und gebildet werden. Die ganzheitliche Erziehung und Bildung umfassen die körperlichen, menschlichen und geistigen Dimensionen jedes Individuums. Die Vernachlässigung einer dieser Dimensionen wird die o. g. Harmonie und Entfaltung stören und zur entsprechenden Entfremdung führen.
Um diese Anspruch näher zu prüfen, befasst sich diese Arbeit mit den folgenden Hauptthemen: Die allgemeine Beschreibung der Bahá’í-Religion, die Sicht auf den Menschen und die Welt, die politische Bildung aus der Sicht der Bahá’í und die erzieherischen sowie Bildungsmaßnahmen der Bahá’í in der Praxis.
Durch die politische Bildung soll nach dem Bahá’í-Verständnis eine tief demokratische und lebensfreundliche Politik realisiert werden. Die Bahá’í auf der ganzen Welt praktizieren ein System, das diesen Idealen entspricht bzw. sehr nahe kommt.
Die praktischen Maßnahmen der Erziehung und der Bildung im Bahá’í-Sinne werden anhand des Bahá’í-Curriculums im Iran vor der islamischen Revolution analysiert und versucht, daraus pädagogische Maxime zu entnehmen. Anschließend wird der eigene Bahá’í-Unterricht in Deutschland sowie die weltweit eingesetzten Ruhi-Kurse dargestellt.
Diese Arbeit soll den Leser dazu anregen, sich mit der Realisierbarkeit einer friedlichen, humanen und dynamischen Weltgemeinschaft auseinander zu setzen und die Möglichkeit des Glücks sowie der Entfaltung des Individuums zu prüfen.
Nachdem zunächst Ziel und Forschungsgegenstand dieses Aufsatzes erläutert (1.2.1) wurden, werden die Definitionen der Leitbilder verdeutlicht, der in diesem Aufsatz eine zentrale Rolle spielen (1.2.2). Danach werden die vorangegangenen Studien über die „Leitbilder“ der deutschen Außenpolitik zusammengefasst und die Fragestellung dieser Arbeit diskutiert (1.2.3). Da ein Ziel dieser Arbeit die Verdeutlichung der Kontinuitätsund Wandelseite des „Leitbildes“ ist, das die deutsche Außenpolitik in der Realität verfolgt, fasst der Verfasser schließlich die Debatte über „Kontinuität und Wandel der deutschen Außenpolitik“ zusammen. Hier wird der Verfasser die Debatte über „Kontinuität und Wandel der deutschen Außenpolitik“ mit der Debatte über „Leitbilder“ der deutschen Außenpolitik konvergieren. Dadurch wird der Verfasser verdeutlichen, dass sich im „Leitbild“ die Essenz der deutschen Außenpolitik widerspiegelt (1.2.4).
Schulkinder mit einem türkischen Migrationshintergrund zeigen im deutschen Bildungssystem einen spezifischen Leistungsnachteil: Während der Leistungsnachteil von Schulkindern mit einem Migrationshintergrund aus anderen Ländern durch Hintergrundvariablen wie beispielsweise dem SES aufklärbar ist, ist der Leistungsabstand zwischen Schulkindern mit einem türkischen Migrationshintergrund und Schulkindern ohne Migrationshintergrund nicht nur stärker ausgeprägt, sondern zudem nicht durch die bisher betrachteten Hintergrundvariablen aufklärbar. Daher erscheint die Suche nach Gründen für diesen spezifischen Leistungsnachteil bei Prozessen des vorschulischen Kompetenzerwerbs notwendig.
Eine Voraussetzung für schulischen Erfolg ist Selbstkontrolle, also die Fähigkeit, eine Handlungstendenz für das Erreichen eines anderen Zieles zu unterdrücken. Kinder, die bereits im Kindergartenalter eine gut ausgeprägte Selbstkontrolle aufweisen, zeigen in ihrem späteren Leben bessere Schulleistungen als Kindergartenkinder mit einer geringeren Fähigkeit zur Selbstkontrolle. Die Fähigkeit zur Selbstkontrolle könnte bei Kindern mit einem türkischen Migrationshintergrund durch kultur- und/oder migrationsspezifische Faktoren geringer sein als die von Kindern ohne Migrationshintergrund. Als kulturspezifischer Faktor ist beispielsweise eine geringere Bewertung von Selbstkontrolle im türkischen Erziehungssystem möglich; als migrationsspezifischer Faktor kommt eine Verminderung der Selbstkontrolle durch migrationsbedingte Stressoren in Betracht.
Daher war die zentrale Frage der vorliegenden Dissertation, ob Kindergartenkinder mit einem türkischen Migrationshintergrund eine geringere Selbstkontrolle zeigen als Kindergartenkinder ohne Migrationshintergrund. Ein bewährtes Paradigma zur Erfassung von Selbstkontrolle bei Kindergartenkindern ist der Belohnungsaufschub, die Fähigkeit auf eine sofortige, kleinere Belohnung zugunsten einer späteren aber größeren Belohnung zu verzichten. In einer Literaturübersicht (Artikel 1) wurde sich mit verschiedenen Paradigmen zur Erfassung des Belohnungsaufschubes beschäftigt. Dabei wurden Probleme in der konvergenten Validität der bestehenden Methoden festgestellt. Das Warteparadigma scheint den Belohnungsaufschub im Kindergartenalter am adäquatesten zu erfassen, zeigt jedoch nur eine geringe Re-Test Reliabilität. Aus diesem Grund wurde eine neue Variante der klassischen Warteaufgabe, die Sanduhraufgabe, auf ihre prognostische Validität und Re-Test Reliabilität geprüft (Artikel 2). Die Sanduhraufgabe, gemessenen im Kindergartenalter, besitzt eine ausreichende Re-Test Reliabilität und Vorhersagekraft für mathematische Kompetenzen und Verhaltensauffälligkeiten am Ende der ersten Klasse.
Mit dieser Aufgabe wurde die zentrale Frage der vorliegenden Dissertation, ob Kindergartenkinder mit einem türkischen Migrationshintergrund eine geringere Selbstkontrolle zeigen als Kindergartenkinder ohne Migrationshintergrund, untersucht (Artikel 3). Zur Differenzierung zwischen kultur- und migrationsspezifischen Faktoren wurde hierbei die Selbstkontrollfähigkeit von Kindergartenkindern mit unterschiedlichem Migrationshintergrund (türkisch vs. andere) verglichen sowie die von deutschen und türkischen Kindern ohne Migrationshintergrund. Die in Deutschland untersuchten Gruppen (ohne Migrationshintergrund, türkischer Migrationshintergrund und Migrationshintergrund aus anderen Ländern) unterschieden sich nicht in ihrer Selbstkontrolle. Damit scheint der spezifische Leistungsnachteil von Kindern mit einem türkischen Migrationshintergrund im deutschen Bildungssystem nicht durch vorschulische Unterschiede in der Fähigkeit zur Selbstkontrolle erklärbar zu sein. Allerdings wiesen die türkischen Kinder ohne Migrationshintergrund eine geringere Selbstkontrolle auf als die deutschen Kinder ohne Migrationshintergrund. Die Ergebnisse wurden bezüglich ihrer Aussagekraft über mögliche kultur- und migrationsspezifische Einflussfaktoren auf die Selbstkontrolle von Kindergartenkindern diskutiert.
Ein zentraler Bestandteil der Teilchenphysik ist die Berechnung der Zerfallsbreiten bzw. Lebensdauern von Teilchen. Die meisten bekannten Teilchen sind instabil und zerfallen in zwei oder mehr leichtere Teilchen. Die Formel für die Berechnung einer Zerfallsbreite enthält zwei verschiedene Komponenten: Die kinematischen Faktoren, die lediglich vom Anfangs- und Endzustand abhängen und aus der Energie- und Impulserhaltung folgen, und die dynamischen Faktoren, die sich aus der Art der Wechselwirkung und eventuellen Zwischenstufen ergeben. Gibt es mehrere Zerfallskanäle, die zu den gleichen Endzuständen führen, so unterscheiden diese sich nur in den dynamischen Faktoren. Aus diesem Grunde werden kinematische und dynamische Faktoren getrennt, da nur letztere für die Analyse der Wechselwirkung relevant sind.
Die kinematischen Faktoren von Zwei- und Dreikörperzerfällen haben einen fundamentalen Unterschied: Beim Zweikörperzerfall ist durch die Erhaltungssätze die Verteilung der Energien der Produktteilchen komplett festgelegt, während sie bei einem Dreikörperzerfall innerhalb bestimmter Grenzen variieren kann.
Ein Dreikörperzerfall kann auf zwei verschiedeneWeisen auftreten: Bei einem direkten Zerfall entstehen gleichzeitig alle drei Endprodukte. Bei einem indirekten Zerfall zerfällt das Startteilchen zuerst in zwei Teilchen, von denen eines stabil ist und das andere erneut zerfällt. Im Falle des indirekten Zerfalls haben die resultierenden Teilchen eine andere Impulsverteilung als bei einem direkten Zerfall, woraus sich Informationen über den Zwischenzustand gewinnen lassen.
Im ersten Kapitel dieser Arbeit widmen wir uns der expliziten Berechnung der Zerfallsbreite für die verschiedenen Fälle. Wir beschränken uns hier und in allen weiteren Rechnungen auf skalare und pseudoskalare Teilchen, bei denen keine Spineffekte auftreten.
Die Zerfallsbreite eines Dreikörperzerfalls lässt sich in einer besonders praktischen Form, dem sogenannten Dalitz-Plot, darstellen. Hierbei sind alle kinematischen Faktoren konstant und eine Darstellung der Zerfallsbreite in Abhängigkeit der entsprechenden Variablen lässt direkten Aufschluss über die Art der Wechselwirkung zu. Die Form eines Dalitz-Plots sowie dessen Interpretation ist Gegenstand des zweiten Kapitels.
Im dritten Kapitel beschäftigen wir uns kurz mit der Frage, welche Auswirkungen Prozesse höherer Ordnung auf den gesamten Zerfall haben. Hierbei beschränken wir uns auf die Betrachtung von Loopbeiträgen des Zwischenzustandes eines indirekten Zerfalls.
Im letzten Kapitel werden wir die theoretischen Betrachtungen am Zerfall eines pseudoskalaren Glueballs anwenden. Ein Glueball ist ein gebundener Zustand aus Gluonen, den Austauschteilchen der starken Wechselwirkung. Da die Gluonen aufgrund der nichtabelschen Struktur der Farbsymmetriegruppe selbst Farbladung tragen, ist es theoretisch möglich, Zustände nur aus Gluonen zu konstruieren, die farbneutral sind und damit den Regeln des Confinements entsprechen. Im Falle der betrachteten Glueballs tritt ein weiterer interessanter Effekt auf: Da es mehrere Zerfallskanäle gibt, die zum gleichen Endzustand führen, treten Interferenzeffekte auf, deren Auswirkung auf das Gesamtergebnis näher untersucht wird.
Zur Erforschung des Strahlstransports durch zwei Toroidsegmente wurden im Rahmen dieser Arbeit theoretische Betrachtungen, Simulationen und experimentelle Untersuchungen durchgeführt. Dazu wurde ein toroidaler Teststand, bestehend aus zwei 30 Grad Toroidsegmenten mit einer magnetischen Feldstärke von 0,6 T und einer Driftsektion zwischen diesen beiden Magneten von 400 mm Länge, verwendet. Von einer Volumenionenquelle wurde ein Wasserstoffionenstrahl erzeugt und dieser mittels eines Solenoids angepasst und in das erste Toroidsegment eingeschossen. Mit Hilfe eines beweglichen Detektors konnte der Ionenstrahl an jeder Position im Rezipienten beim Transport durch den toroidalen Aufbau experimentell untersucht und vermessen werden.
Bei den Experimenten mit dem vorhandenen Detektor konnten auf den Aufnahmen der Leuchtdichteverteilung starke Sekundärelektroneneffekte beobachtet werden, welche die Untersuchung des Ionenstrahls mit dem Detektor erschwerten oder teilweise ganz unmöglich machten. Aus diesem Grund wurde zur Unterdrückung dieser Elektronen eine Wasserstoffatmosphäre im Rezipienten aufgebaut, welche die Elektronen stärker absorbiert als die Ionen und damit die Beobachtung des Ionenstrahls ermöglichen sollte. Auf diesem Wege lässt sich das transversale Verhalten des Strahls beim Strahltransport durch die toroidalen Magnetfelder mit dem vorhandenen Detektor untersuchen. Die Auswirkungen des Wasserstoffgases auf die geladenen Teilchen wurden dabei theoretisch und experimentell untersucht und analysiert. Die Auswirkung von Helium-, Stickstoff- und Argongas auf den Ionenstrahl und die Elektronen wurde in diesem Zusammenhang experimentell betrachtet.
Des Weiteren wurde mit Hilfe des Computerprogramms TBT der Strahltransport durch die zwei toroidalen Magnetfeldsegmente unter Verwendung von Referenzeinstellungen simuliert und die Ergebnisse mit den theoretischen und experimentellen Daten des Strahltransports verglichen. Bei diesen Simulationen konnten die Gyrationsbewegungen sowie die Transmission des Ionenstrahls durch die Driftsektion genauer untersucht werden.
Da die Magnetfelder der Toroidsegmente auch in der Driftsektion als Führungsfelder dienen sollen, sind die im experimentellen Aufbau verwendeten Toroidsegmente nicht magnetisch geschirmt. Dies hat zur Folge, dass das von den Magneten erzeugte Feld Auswirkungen auf andere Komponenten des toroidalen Teststandes besitzt. Aus diesem Grund wurden die Auswirkungen dieser Magnetfelder auf die Ionenquelle sowie auf das Druckmesssystem des Teststands genauer betrachtet.
Die Untersuchung von RNA mittels NMR-Spektroskopie hat in den letzten Jahren an Bedeutung gewonnen, weil die Zahl der neu entdeckten RNA-Funktionen, wie z.B. RNA-Schalter in Bakterien, stark gestiegen ist. Ziel dieser Arbeit war es, mithilfe der NMR-Spektroskopie einen Beitrag zum besseren Verständnis der biochemischen Prozesse, in die RNA-Moleküle involviert sein können, zu leisten.
Im ersten Teil dieser Arbeit (Kapitel 2, 3 und 4) werden zum einen die Entwicklung neuer Methoden für die RNA-Strukturbestimmung vorgestellt und zum anderen die Leistungsfähigkeit der modernen NMR-spektroskopischen Strukturaufklärung demonstriert.
Im zweiten Teil dieser Arbeit (Kapitel 5) wird die NMR-Spektroskopie zur Untersuchung der RNA-Schalter-Funktion eingesetzt. Die biologische Funktion von RNA oder Proteinen setzt oftmals eine dynamische Struktur voraus und involviert Konformationsänderungen infolge biochemischer Signalweiterleitung. Für die Charakterisierung solcher Prozesse eignet sich die NMR-Spektroskopie insbesondere gut, weil sie in Lösung unter verschiedenen Reaktionsbedingungen angewandt wer-den kann. Durch den direkten NMR-spektroskopischen Nachweis von Basenpaarungen können wichtige strukturelle Eigenschaften (Faltung, Strukturhomogenität und Dynamik) entschlüsselt und in einen Zusammenhang mit der Funktion gebracht werden.
Im Folgenden werden die einzelnen Kapitel vorgestellt.
Nachdem das erste Kapitel eine allgemeine Einleitung in die NMR-Spektroskopie, RNA-Struktur und Funktion der RNA-Schalter darstellt, folgt im Kapitel 2 die Einführung einer neuen Methode, die eine quantitative Bestimmung der Torsionswinkel alpha und zeta in RNA/DNA mittels NMR-Spektroskopie ermöglicht (Abb. 1). Sie basiert auf der Wechselwirkung zwischen dem CH-Dipol und der 31P-CSA, die von der relativen Orientierung abhängig ist. Die Methode wurde für die CH- und CH2-Gruppen in Form von zwei Pulssequenzen (2D- und 3D-G-HCP) zur Messung von insgesamt fünf kreuz-korrelierten Relaxationsraten entlang des RNA/DNA-Rückgrats optimiert. Die Funktionsfähigkeit der Methode wurde zunächst an der 14mer cUUCGg-Tetraloop RNA getestet und zur Bestimmung der Torsionswinkel alpha und zeta genutzt. Die Ergebnisse flossen in die Strukturrechnung der 14mer RNA, die im Kapitel 3 vorgestellt wird, mit ein. Des Weiteren gelang es die Anwendbarkeit der Experimente an einer größeren 27mer RNA zu demonstrieren. Die neue Methode ist deswegen von Bedeutung, weil die Winkel alpha und zeta nicht über 3J-Kopplungskonstanten gemessen werden können.
(Nozinovic, S., Richter, C., Rinnenthal, J., Fürtig, B., Duchardt-Ferner, E., Weigand, J. E., Schwalbe, H. (2010), J. Am. Chem. Soc. 132, 10318-10329.)
Im Kapitel 3 wird die NMR-spektroskopische Bestimmung der Struktur einer Model-RNA, der 14mer cUUCGg-Tetraloop RNA, vorgestellt. Die Strukturrechung wurde mit verschiedenen NMR-Datensätzen, die in der Arbeitsgruppe einschließlich dieser Doktorarbeit gesammelt wurden, durchgeführt. Zusammen mit den Ergebnissen aus dem Kapitel 2 konnte eine sehr präzise Struktur mit einem RMSD von 0,37 Å (20 Strukturen) in sehr guter Übereinstimmung mit experimentellen Daten ermittelt werden. Die gerechnete Struktur repräsentiert eine der gegenwärtig genauesten und umfassendsten Strukturbestimmungen einer RNA, bei der jeder Torsionswinkel quantitativ bestimmt wurde. Einen besonderen Höhepunkt stellt die strukturelle Analyse der 2’OH-Gruppen dar, die im anschließenden Kapitel 4 weiter vertieft wurde.
(Nozinovic, S., Fürtig, B., Jonker, H. R. A., Richter, C., Schwalbe, H. (2010), Nucleic Acids Res. 38, 683-694)
Über Jahre war bekannt, dass die Größe der 1J(C1’,H1’)- und 1J(C2’,H2’)-Kopplungskonstanten innerhalb der Ribonukleotide von der lokalen Struktur des Zuckers und der Orientierung der Nukleobase beeinflusst wird. In dieser Arbeit (Kapitel 4) wurde zum ersten Mal ein systematischer Vergleich zwischen NMR-Messungen und DFT-Rechnungen durchgeführt, der eine eindeutige Zuordnung der Hauptkonformationen des Zuckers (C3’- oder C2’-endo) und der Nukleobase (anti oder syn) anhand der 1J(C,H)-Kopplungskonstanten erlaubt. Die beschriebene Methode wurde an einer größeren 27mer RNA erfolgreich erprobt. Weiterhin wurde erstmalig entdeckt, dass zudem die Orientierung der 2’OH-Gruppe einen signifikanten Einfluss auf die 1J(C,H)-Kopplungen hat (Abb. 3). Mithilfe von NMR-Messungen und DFT-Rechnungen konnte aus 1J(C,H)-Kopplungskonstanten die Orientierung von allen 2’OH-Gruppen in der 14mer cUUCGg-Tetraloop RNA bestimmt werden. Die Methode hat den großen Vorteil, dass 2’OH-Gruppen, die aufgrund des schnellen Austauschs mit Wasser oder D2O keine NMR-Signale liefern, analysiert werden kön-nen.
(Nozinovic, S., Gupta, P., Fürtig, B., Richter, C., Tüllmann, S., Duchardt-Ferner, E., Holthausen, M. C., Schwalbe, H. (2011), Angew. Chem. Int. Ed. 50, 5397-5400)
Im Kapitel 5 wird eine NMR-spektroskopische Untersuchung an der Aptamerdomäne des Adenin-bindenden RNA-Schalters (pbuE) vorgestellt. Im Fokus der Forschung stand die Frage: Welchen Einfluss hat die Länge der P1-Helix auf die Struktur und die Ligandbindung der freien Aptamer-domäne?
Durch den Vergleich von zwei Konstrukten mit unterschiedlich langer P1-Helix war es möglich, intrinsische Scherkräfte, die durch die Ausbildung der P1-Helix in der freien Aptamerdomäne entstehen, festzustellen. Es hat sich im Konstrukt mit der verlängerten P1-Helix gezeigt, dass diese zur Destabilisierung der P3-Helix und des Schlaufenkontakts führen. Diese strukturellen Änderungen haben außerdem zur Folge, dass die Bindungsstärke des Liganden reduziert wird. Die Ergebnisse zeigen, dass ein strukturelles Gleichgewicht zwischen Sekundärstrukturelementen die tertiäre Faltung beeinflusst und die Funktion moduliert.
(Nozinovic, S., Reining, A., Noeske, J., Wöhnert, J., Schwalbe, H. (2011), in Vorbereitung)
Zwei Faktoren führten in der Vergangenheit zu einer erhöhten Nachfrage nach qualifizierten Arbeitskräften: Die strukturelle Zunahme qualifizierter Arbeit auf Kosten einfacher Tätigkeiten und die zumeist konjunkturbedingte zusätzliche Nachfrage nach Arbeitskräften. Auch wenn der Trend zur Höherqualifizierung bei den Neueinstellungen in Hessen in den letzten Jahren gestoppt scheint, nahm der Fachkräftebedarf 2011 absolut gesehen weiter zu. Noch deutlicher ist der Anstieg der Fachkraftstellen, die im letzten halben Jahr nicht besetzt wurden, wobei insbesondere kleinere Betriebe und wirtschaftsnahe Dienstleister aktuell viele unbesetzte Fachkräftestellen aufweisen. Eine hohe oder sogar weiter ansteigende Fachkräftenachfrage ist allein noch kein Problem. Erst ein gleichzeitiger Rückgang des (im IAB-Betriebspanel nicht erfassten) Arbeitskräfteangebots könnte zum vielfach befürchteten Fachkräftemangel führen. Aufgrund der demografischen Entwicklung ist mit einem solchen Rückgang mittelfristig zu rechnen, aber auch innerhalb der nächsten zwei Jahre erwartet eine nennenswerte von hessischen Betrieben bereits Schwierigkeiten bei der Besetzung von offenen Fachkraftstellen. Dies trifft erneut insbesondere auf die kleineren Betriebe zu; zudem werden im Bereich der Sonstigen Dienstleistungen von vielen Betrieben Probleme erwartet. Maßgeblich hierfür ist aus Sicht der Betriebe ein ganzes Bündel an Faktoren, wie z.B. unattraktive Arbeitsbedingungen oder fehlende Spezialkenntnisse der Arbeitskräfte, aber ein Hauptgrund lässt sich sektorübergreifend festmachen: das Fehlen an Bewerbern. Etwa drei Viertel der Betriebe, die Neueinstellungen planen, rechnen damit, dass sich bei ihnen zu wenige geeignete Personen bewerben. Diese Erwartung führt mehrheitlich zu der Reaktion, stärker in das eigene betriebliche Humankapital zu investieren, insbesondere durch Qualifizierungsmaßnahmen, aber auch durch betriebliche Ausbildung. Flankierende Strategien wie attraktivere Arbeitsbedingungen oder die Verbesserung der Vereinbarkeit von Beruf und Familie stehen ebenfalls auf der Agenda, gemeinsam mit dem Ziel, ältere Fachkräfte länger im Betrieb zu halten. Letzteres ist auch dem Umstand geschuldet, dass aufgrund der Altersstruktur der hessischen Betriebe zukünftig in höherem Maße Fachkräfte altersbedingt ausscheiden werden. Diese Erkenntnis schlägt sich bislang jedoch noch nicht in einer Zunahme spezifischer Maßnahmen für ältere Beschäftigte nieder. Im Gegenteil: Die Zahl der Betriebe, die keine derartigen Maßnahmen fördert, ist in den letzten zehn Jahren deutlich gestiegen. Zusammenfassend lässt sich festhalten, dass bereits heute punktuell Schwierigkeiten bei der Besetzung von Fachkraftstellen zu bestehen scheinen. Dies wird aus Sicht der hessischen Betriebe tendenziell zunehmen; das betriebliche Instrumentarium an Strategien könnte sich in naher Zukunft vielfach nicht als ausreichend differenziert und zielgerichtet erweisen, insbesondere hinsichtlich der unterschiedlichen Ausgangssituationen in einzelnen Branchen. Es ist derzeit schwer einzuschätzen, inwieweit sich Betriebe mit ihren Strategien den sich verändernden Bedingungen anpassen bzw. anpassen können und wo Impulse und Unterstützungen durch Dritte notwendig sein werden.
Arbeitszeitregelungen sowie Löhne und Gehälter sind zentrale personalpolitische Instrumente, und haben dementsprechend eine hohe Bedeutung bei der Fachkräftegewinnung und -bindung. Allerdings bieten die Daten des aktuellen IAB-Betriebspanels nur bedingt Hinweise, dass diese bereits heute im Hinblick auf bestehende oder erwartete Fachkräfteengpässe genutzt werden. Einzig die etwas häufiger anzutreffende übertarifliche Entlohnung in Betrieben mit aktuellen oder erwarteten Stellenbesetzungsproblemen kann als Indikator betrachtet werden, während die Betrachtung der vergangenen Entwicklung weder bei den vereinbarten durchschnittlichen wöchentlichen Arbeitszeiten und den geleisteten Überstunden, noch bei den Löhnen und Gehältern Anhaltspunkte für eine verstärkte Nutzung dieser Instrumente zur Abfederung von Fachkräfteengpässen liefert. Auch die genauere Betrachtung nach von Fachkräfteengpässen besonders betroffenen Wirtschaftszweigen lässt wenig Rückschlüsse auf eine verstärkte Nutzung dieses Instrumentariums zu. In den Branchen, in denen bereits heute Probleme bei der Stellenbesetzung bestehen, wie beispielsweise den Sonstigen Dienstleistungen, zu denen auch die Gesundheits- und Sozialberufe zählen, werden eher niedrigere Arbeitsvolumen und niedrigere Löhne als im Durchschnitt verzeichnet. In der Regel sind die Unterschiede und die Veränderungen im Zeitverlauf zudem vergleichsweise gering, und wo dies nicht der Fall ist und deutliche Ausschläge zu verzeichnen sind, hat dies in erster Linie konjunkturelle Gründe. Die genannten Differenzen bei den Löhnen verweisen jedoch exemplarisch auf den möglichen umgekehrten Zusammenhang zwischen dem Einsatz personalpolitscher Instrumente und möglichen Fachkräfteengpässen: Statt mit höheren Löhnen auf Stellenbesetzungsprobleme zu reagieren, sind die bestehenden oder erwarteten Fachkräfteprobleme vielmehr Folge des Umstands, dass viele Betriebe, aus Wettbewerbs- oder anderen Gründen, keine höheren Löhne zahlen können. Der Mangel an betrieblichen Gestaltungsspielräumen bei den „harten“ Faktoren wie Arbeitszeiten und Löhnen wiederum kann nur kompensiert werden, wenn weiterhin und vermehrt die Flexibilisierungspotentiale genutzt werden. Der recht deutliche Anstieg der Verbreitung von Arbeitszeitkonten zeigt, dass dies zumindest teilweise bereits vollzogen wird, zumal insbesondere Betriebe mit aktuellen und erwarteten Fachkräftebedarfen hiervon Gebrauch machen.
Die betriebliche Ausbildung und die betriebliche Weiterbildung und Qualifizierung besitzen gleichermaßen eine Schlüsselfunktion bei der Rekrutierung und Sicherung des Fachkräftebestands. Während die Ausbildung ein breites Grundlagenwissen vermittelt, dient die betriebliche Weiterbildung v.a. der spezifischen Anpassungs- und Höherqualifizierung, so dass beide Bereiche komplementär funktionieren. Dies bedeutet allerdings nicht, dass ihre Nutzung auch parallel verläuft; beide Instrumente zeigen in den letzten 10 Jahren eine sehr unterschiedliche Entwicklung. Die Verbreitung und Intensität der betrieblichen Ausbildung waren im vergangenen Jahrzehnt strukturell immer recht ähnlich, unterbrochen von kleineren, unter Umständen konjunkturbedingten Ausschlägen. Eine generelle Zunahme der Ausbildungsbereitschaft ist nicht zu verzeichnen, es gibt jedoch Anzeichen für die strategische Nutzung der zeit- und kostenintensiven betrieblichen Ausbildung als Instrument der Fachkräftesicherung. Ein ganz anderes Bild bietet sich bei der betrieblichen Weiterbildung. Hier ist ein klarer Aufwärtstrend sowohl bei der Beteiligung als auch der Intensität zu beobachten; mittlerweile fördert eine Mehrheit der hessischen Betriebe Weiterbildungsmaßnahmen. Ein genauerer Blick auf die präferierte Art der Weiterbildung liefert möglicherweise auch die Erklärung für diese gegenläufige Entwicklung: Der Trend geht recht deutlich in Richtung passgenauer und flexibler Qualifizierung, und tendenziell weg von den relativ formalisierten Kursstrukturen - sowohl auf der Angebots- als auch auf der Nachfrageseite. Im Ausbildungsbereich hingegen sind aufgrund der formalen und gesetzlichen Vorgaben deutlich geringere Flexibilisierungspotenziale vorhanden, weshalb aus Sicht der Betriebe u.U. den kurzfristigeren und flexibleren Bildungsformen der Vorzug gegeben wird. Eine solche Strategie übersieht jedoch, dass Ausbildung die Möglichkeit bietet, junge Menschen mit den jeweiligen betrieblichen Spezifika vertraut zu machen und somit die Arbeitskräfte nicht nur fachlich, sondern auch sozial und persönlich in die betriebliche Arbeitswelt zu integrieren. Eine Strategie, die Weiterbildung auf Kosten der Ausbildung bevorzugt, wirft die Frage auf, ob dies zwar als kurzfristiger Beitrag zur Qualifikationssicherung funktional ist, als langfristige Strategie zur Fachkräftesicherung und -bindung jedoch versagt. Hier wären dann andere innovative Strategien nötig, die trotz kürzerer Zyklen und knapper Ressourcen mittel- und langfristig den Fachkräftebedarf decken. Diese Herausforderung ist unter den hessischen Betrieben nicht gleich verteilt. Differenzen ergeben sich v.a. analog zur Bedeutung der jeweiligen Strategie, insbesondere Betriebe, die Weiterbildung als zentrales Element der Fachkräftesicherung sehen, setzen diese auch häufiger ein. Besonders große Probleme, Ausbildungsstellen zu besetzten und Fachkräfte zu gewinnen, haben die kleineren Betriebe. Diese warten aber bereits heute mit einer höheren Aus- und Weiterbildungsquote auf als die größeren Betriebe; die Probleme sind dort demnach erkannt, ein besonderer Bedarf an Unterstützung bleibt gleichwohl bestehen.
Eine hohe Erwerbsbeteiligung von Frauen hat nicht nur eine zentrale Funktion für deren gesellschaftliche Teilhabe, sondern leistet auch einen wesentlichen Beitrag zur mittel- und langfristigen Fachkräftesicherung in den hessischen Betrieben. Die Daten des IAB Betriebspanels liefern Anhaltspunkte für eine positive Entwicklung der Frauenbeschäftigung; allerdings gibt es auch andere Befunde. Die wichtigsten Ergebnisse im Einzelnen: Die Zahl der in Hessen beschäftigten Frauen lag 2011 mit hochgerechnet 1,325 Mio. auf dem höchsten Stand der Panelbeobachtung. Der Anteil der Frauen an den Gesamtbeschäftigten beträgt seit einigen Jahren konstant etwa 47 Prozent und liegt somit etwa fünf Prozentpunkte höher als vor zehn Jahren. Besonders hoch ist der Frauenanteil in der Öffentlichen Verwaltung und insbesondere bei den Sonstigen Dienstleistungen; noch immer relativ wenige Frauen sind im Produzierenden Gewerbe beschäftigt. Der Anteil der qualifiziert beschäftigten Frauen an allen beschäftigten Frauen ist angestiegen, liegt jedoch noch immer unter dem Durchschnitt aller Beschäftigten. Der Anstieg der Beschäftigung liegt vor allem an der Ausweitung atypischer Beschäftigungsverhältnisse. Vor allem die Teilzeitbeschäftigung hat eine deutlich höhere Bedeutung als noch vor zehn Jahren; allein die Zahl der teilzeitbeschäftigten Frauen hat in Hessen in diesen Zeitraum um hochgerechnet etwa 140.000 zugenommen. Die Teilzeitquote der Frauen und deren Anteil an allen Teilzeitbeschäftigten blieben hingegen konstant. Auch die befristete Beschäftigung hat an Bedeutung gewonnen. Zwar sind auch hier Frauen etwas häufiger betroffen. Vor allem Wirtschaftszweige, in denen ein hoher Frauenanteil zu verzeichnen ist, weisen überdurchschnittlich häufig befristete Arbeitsverhältnisse auf. Die Beteiligung der Frauen an betrieblicher Aus- und Weiterbildung war 2011 sowohl im Zeitvergleich als auch in Relation zu den Gesamtbeschäftigten überdurchschnittlich hoch. Zudem konnten Frauen bei der Ausbildung in jedem der beobachteten Jahre überdurchschnittlich häufig ihre Ausbildung erfolgreich abschließen. Dies wirft im Hinblick auf die Fachkräftesicherung die Frage auf, wie es gelingen kann, die qualifizierten Frauen im Erwerbsleben zu halten und somit mittel- und langfristig die qualifikatorische Lücke zu schließen, die noch immer zu den männlichen Beschäftigten besteht.
Die Gegenübertragung hat sich mittlerweile zu einem der wichtigsten Instrumente der stationären psychosomatischen Therapie entwickelt. Ihr kommt in der psychodynamischen Psychotherapie für das Verständnis der unbewussten Konflikte und für den damit zusammenhängenden Behandlungserfolg eine zentrale Funktion zu. Dies gilt für die Einzeltherapie, aber auch für die integrative stationäre psychodynamische Therapie und deren „Herzstück“ (Janssen 2004) - das multiprofessionelle Team. Die Ziele der Arbeit bestehen - abgesehen von der Beschreibung der Faktorenstruktur und Reliabilität des Gegenübertragungsfragebogens - darin, herauszufinden, ob sich a) die Gegenübertragung in unterschiedlichen Therapieverfahren unterscheidet, b) in welcher Weise die Gegenübertragung mit dem Beziehungserleben und der Beziehungsgestaltung des Patienten zusammenhängt, c) ob die Gegenübertragung mit der Belastung des Patienten zusammenhängt und d) ob sich die Gegenübertragung abhängig von der Diagnose unterscheidet.
Methode: Dazu wurde mithilfe des Gegenübertragungsfragebogens (CTQ-D)
die Gegenübertragung von 137 Patienten durch mehrere Therapeuten (Ärzte, Psychologen und Pflegekräfte) aus zwei psychosomatischen Kliniken zu Therapiebeginn und zum Therapieende erhoben. Insgesamt flossen 1131 Fragebögen in die Auswertung mit ein. Die Faktorenanalyse des CTQ-D ergab eine Lösung mit sieben statistisch und klinisch kohärenten Faktoren: 1) aggressiv-resignative GÜ, 2) positiv-zugeneigte GÜ, 3) überwältigt-verängstigte GÜ, 4) protektiv-elterliche GÜ, 5) desinteressierte GÜ, 6) verstrickte GÜ und 7) sexualisierte GÜ. Die Patienten füllten die Symptomcheckliste (SCL-90R), den Helping Alliance Questionaire (HAQ), das Inventar zur Erfassung interpersonaler Probleme (IIP) und den Fragebogen zur Erhebung von Persönlichkeitsstörungen (ADP-IV) zu Beginn und zum Ende der Therapie aus. Ergebnisse: Es konnten einige spezifische und signifikante Zusammenhänge zwischen der Gegenübertragung der Therapeuten und den Selbstbeurteilungsinstrumenten der Patienten nachgewiesen werden: a) Konfliktorientierte Therapieverfahren (Gesprächstherapien) erzeugen bei den Therapeuten höhere aggressiv-resignative Gegenübertragung, erlebnisorientierte Therapieverfahren (Körpertherapie und Gestaltungstherapie) rufen höhere positiv-zugeneigte, protektiv-elterliche und verstrickte Gegenübertragung hervor. b) Die Beziehungszufriedenheit der Patienten ist
umso größer, je geringer die aggressiv-resignative Gegenübertragung von den Therapeuten wahrgenommen wird und die Therapiezufriedenheit ist umso größer, je geringer die aggressiv-resignative, überwältigt-verängstigte und protektiv-elterliche Gegenübertragung ausgeprägt ist. Ein hoher IIP-Wert bei den Patienten hängt mit dem Erleben von überwältigt-verängstigter Gegenübertragung zusammen. c) Patienten mit hohem GSI rufen bei den Therapeuten hohe aggressiv-resignative, überwältigt-verängstigte, desinteressierte und geringe positiv-zugeneigte Gegenübertragung hervor. Verstrickte, positiv-zugeneigte und sexualisierte Gegenübertragung hängen mit einem guten Therapieverlauf zusammen, aggressiv-resignative und desinteressierte Gegenübertragung deuten auf eine schlechte Entwicklung im Verlauf hin. d) Die höchsten Werte der aggressiv-resignativen, überwältigtverängstigten und protektiv-elterlichen GÜ und die geringste positiv-zugeneigte GÜ wird bei der Gruppe der Persönlichkeitsstörungen wahrgenommen. Den höchsten Wert der positiv-zugeneigten und der verstrickten GÜ erreicht die Gruppe der Essstörungen. Somatoforme Störungen rufen in den Therapeuten ein hohes Maß an Desinteresse hervor. Die Gruppe der affektiven Störungen erzeugt bei den Therapeuten in allen Dimensionen geringe Gegenübertragungsgefühle. Folgerung: Die Ergebnisse verdeutlichen, dass die Gegenübertragung ein aussagekräftiges Instrument zur Beurteilung der Beziehungsgestaltung, der Belastung und der Verlaufsbeurteilung der Patienten auf einer psychosomatischen Station darstellt. Sie betonen auch die Bedeutung der Auflösung negativer Gegenübertragungskonstellationen durch Supervisionen und Teambesprechungen im stationären Alltag. Dabei bedürfen schwierige Patienten, beispielsweise mit somatoformer Störung oder Persönlichkeitsstörung besonderer Aufmerksamkeit. Dem CTQ-D kann neben dem Einsatz als wissenschaftlichem Instrument im Rahmen der Ausbildung und im klinischen Alltag zur Vorhersage des Therapieverlaufs umfassende Bedeutung zukommen.
Bombardiert Belgien!
(2012)
Mit diesem Slogan ließe sich heute keine Politik mehr machen, würde ich denken. Zu Zeiten des Kosovo-Krieges war diese Forderung von Wiglaf Droste in der taz wenigstens noch einen Aufreger wert. Internationale politische Verwerfungen gab es bis heute eher nicht, und auch die NATO hat sich nicht zu einer Intervention hinreißen lassen. In Deutschland stritt das Feuilleton über die Grenzen des satirischen Geschmacks, und damit war wohl auch alles erreicht, was es zu erreichen galt...
Soeben ist ein neues Internetangebot für Blogs in den (deutschen) Sozialwissenschaften gestartet: de.hypotheses.org ist er deutsche Ableger des ungemein erfolgreichen hypotheses.org aus Frankreich, welches die dortige Bloglandschaft im wissenschaftlichen Bereich bündelt. Zum Start hatte das Deutsche Historische Institut Paris (DHIP) zu einer Tagung geladen, auf der viele Aspekte des wissenschaftlichen Bloggens thematisiert wurden...
Happy Birthday, ducklings!
(2012)
… dann wird das schon mit der zivil-militärischen Zusammenarbeit. Dieser gut gemeinte Ratschlag öffnete das Feld für den gestrigen Themenabend der ARD zum Thema der Bundeswehr in Afghanistan. Mit “Auslandseinsatz” strahlte die Anstalt den ersten deutschen Fernsehfilm aus, “der den Krieg und den Einsatz in Afghanistan selbst zum Thema hat und auch dort spielt” – explizit keine Heimkehrergeschichte, wie die Pressemitteilung betonte, zur Abgrenzung von früheren eigenen Ausstrahlungen und wohl auch von Til Schweigers aktuellem Kinofilm. Gefolgt wurde die fiktionale Abhandlung von einer (extralangen?) Anne-Will-Sendung, in der unter anderem Verteidigungsminister de Maizière zu Gast war – ein interessantes Doppelformat von Fiktion und (Talkshow-)Realität, die immerhin von 3,7 bzw. 2,8 Millionen Menschen gesehen wurde...
Heute vor einem Jahr ist dieses Blog gestartet. Und heute Nacht fand die Präsidentschaftswahl in den USA statt. Grund genug, unseren ersten Podcast diesem Thema zu widmen. Christopher Daase und Julian Junk vom sicherheitspolitik-blog.de diskutieren über die sicherheitspolitischen Implikationen der Wiederwahl Barack Obamas: Wird die Administration weiterhin außenpolitisch ähnlich zurückhaltend agieren? Ist dies nicht ein Widerspruch zu den großen Visionen wie Global Zero? Und wird der Drohnenkrieg unvermindert fortgesetzt? Die Moderation übernahm Philipp Offermann.
Phänomenologie der Pseudovektormesonen und Mischung mit Axialvektormesonen im kaonischen Sektor
(2012)
Der zweifache Urteilsspruch des Europäischen Gerichtshofs für Menschenrechte im Fall “Lautsi gegen Italien” hat sich zum Paradigma der Schwierigkeiten entwickelt, welche Europa bei der adäquaten Ansiedlung der Religion im öffentlichen Bereich erfährt. Die Lösung kann sich ändern, wenn, anstatt dem politischen Problem (wann ist die Ausübung von Macht erlaubt) einzuräumen, die Möglichkeit einer praktischen Vernunft und ihre Verträglichkeit mit dem religiösen Glauben zum Ausgangspunkt gemacht wird. Diese würde zweifelsfrei zu einer politischen Fragestellung zu einer Präsenz der Religion im öffentlichen Bereich einladen, die auf eine positive Laizität mehr Rücksicht nimmt, dabei den Laizismus ablehnt, der darauf drängt, die Rationalität zur Macht auch einen nicht kognitivistischen Code zu reduzieren.
Fragen nach der Schrift und ihrem Gebrauch zählen zu den "Dauerbrennern" der mediävistischen Forschung: Mehrere Sonderforschungsbereiche widmeten und widmen sich dem Thema, auch wenn sie den Zugang aus unterschiedlichen Richtungen suchen. In der Vielzahl der hier produzierten Studien positioniert sich der anzuzeigende Band durch den Fokus auf Phänomene des Rechts, sowie vor allem durch den im Titel stehenden Begriff der "Performanz". Fasst man letzteren als Verweis auf den handlungsbezogenen Charakter des Agierens – hier also bei rechtsbezogenen Praktiken –, so ist eine wertvolle Ergänzung zu den etablierten Forschungen über "rituelles Handeln" zu erhoffen. Schon M. Mosterts Einleitung (S. 1–10) relativiert allerdings allzu überzogene Erwartungen: Zwar problematisiert der Autor nicht nur die Begriffe "legal" und "law", deren reflektierte Anwendung auf vormoderne Verhältnisse er fordert, sondern auch jenen der "performance". Die Differenz zum Ritualbegriff markieren aber lediglich knappe Verweise auf die "performativen Sprechakte" nach Austin und auf den "Spielcharakter" (im Sinne Huizingas) rechtlichen Handelns in der Vormoderne (S. 6–9). ...
Es ist so eine Sache mit der Gattung der "gesammelten Aufsätze": Sie bieten in praktischer Form thematisch zusammenhängende Beiträge eines Autors, die über einen längeren Zeitraum entstanden und an unterschiedlichen Orten publiziert wurden. Im günstigsten Fall entfalten die Texte durch den unmittelbaren Dialog ein neues Panorama, das die Genese und Ausarbeitung eines Forschungsbereichs widerspiegelt. Stets besteht aber auch die Gefahr, Texte neu zirkulieren zu lassen, deren fruchtbarste Zeit doch in der Vergangenheit liegt. Die Lektüre eines solchen Bandes ist daher nicht nur mit der (Wieder-)Entdeckung alter und neuer Perspektiven und Materialien verbunden, sondern fordert zugleich zur Reflexion über die Gattung selbst auf. Das gilt umso mehr in einer Zeit, in der die Möglichkeit zur Erstellung "virtueller Dossiers" bestünde, die nicht notwendigerweise als gedrucktes Buch vorliegen müssen. ...
Rezension zu: Maritza Le Breton: Sexarbeit als transnationale Zone der Prekarität. Migrierende Sexarbeiterinnen im Spannungsfeld von Gewalterfahrungen und Handlungsoptionen.Wiesbaden: VS Verlag für Sozialwissenschaften 2011. 241 Seiten, ISBN 978-3-531-18330-5, € 39,95
Sexarbeiterinnen selbst kommen in empirischen Studien zu Migration und Sexarbeit selten zu Wort. In ihrer Dissertation gelingt Maritza Le Breton jedoch genau das, sie schafft einen Raum für ansonsten (epistemologisch) marginalisierte Akteurinnen. Ihr Ziel ist es, deren tatsächliche (Gewalt-)Erfahrungen sowie Lebens- und Arbeitssituationen in den Blick zu nehmen und auszuarbeiten, um so wichtiges Adressatinnen-Wissen für die Soziale Arbeit zugänglich zu machen. Auf der Basis von 21 problemzentrierten Interviews mit migrierten Sexarbeiterinnen, die in Basel/Schweiz in Kontaktbars oder Salons arbeiten, stellt sie Gewaltverhältnisse und Machtkonstellationen in der Sexökonomie sowie Handlungsoptionen der Sexarbeiterinnen dar.
Drawing on the example of a research project on the extension of the margins of the global agricultural market through the workings of agribusiness in Ghana, this paper explores what contribution ethnographic approaches can make to the study of quotidian market constructions in organizational settings. It demonstrates how ethnographies of marketization can be grasped conceptually, epistemologically and methodologically, as well as what practical and methodological challenges such a practice-oriented approach towards the everyday organization of markets might encounter. By doing so, the paper offers a methodological contribution to the interdisciplinary field of marketization studies. Moreover, this paper urges economic geographers to further harness the epistemological potential of ethnographic approaches.
Mit Schillers Wort von Sprache, die selbst dichtet und denkt, rekurrierte Ernst Forsthoff zeitweise auf einen unverfügbaren Eigenwert der Rechtssprache jenseits positivistischer Legalitätsmanöver, auswechselbarer Naturrechtsideologien, aber auch eines mehr oder weniger beliebigen, bestimmte Gegebenheiten akzentuierenden oder idealisierenden konkreten Ordnungsdenkens. Gegenüber solcher Funktionalisierung und – nahe Heidegger’schem Jargon – "technischer Zurichtung" bei ständiger "Veränderung der Wertskala der Zwecke" wollte Forsthoff die Wissenschaft der "Belehrung durch die Sprache selbst überlassen". Er plädierte für eine "Wiederherstellung der juristischen Hermeneutik als Disziplin von eigener logischer Struktur", stark angelehnt an Savigny und, wie Florian Meinel betont, "seiner Zeit um zwanzig Jahre voraus" (262). Angesichts der Missbrauchsanfälligkeit der selbst ideologischen Vorstellung einer wahren Sprache kann man mit dem Brieffreund Fritz von Hippel eine weitere Steigerung der Sprachverwirrung monieren und Forsthoffs Appell an die hermeneutische Tugend mit Meinel als "juristische Durchhalteparole im Weltbürgerkrieg der Ideologien" auffassen (263f.). Tiefschichtiger interpretiert Meinel sodann aber die von Forsthoff gesuchte Anlehnung an die Sprachphilosophie von Hamann und Herder im Sinne einer theologischen Rechtsbegründung, die die göttlich gestiftete und nicht menschlich gemachte Sprache wie Ordnung dem instrumentalistischen Zugriff des Exegeten entrücken soll (264). Übrigens hat Forsthoff dieses rechtstheologische Moment in seiner unveröffentlichten rechtsphilosophischen und ebenfalls an Savigny orientierten Studie "Die Institutionen als Rechtsbegriff" (1944/47) fortgeschrieben, bezugnehmend jetzt vornehmlich auf vorgeordnete organische Ordnungszusammenhänge, wie sie auch schon in "Recht und Sprache" aufgeschienen waren. Jede Institution sollte neben einem sachlichen ein personelles Element in Form eines bestimmten Menschenbildes aufweisen, das der evangelische Pfarrerssohn nach der Lehre Martin Luthers durch Fehlsamkeit und Erlösungsbedürftigkeit bestimmte und von da aus die Einordnung individueller Willensautonomie in Strukturen objektiver, überindividueller, gleichwohl geschichtlich wandelbarer Bindungen anthropologisch rechtfertigte (291). Den alles ins Provisorische und Diskutable schiebenden "modernen Massendemokratien", einschließlich der auf "Herrenkult" aufbauenden "massendemokratischen Diktaturstaaten", schrieb Forsthoff eine geradezu antiinstitutionelle Verschleißkraft zu (292f.). Dass auch dieser Versuch, dem juristischen Denken einen neutralen, ideologiefreien Raum zu vindizieren, nicht gelingen konnte, weil sich hinter dem institutionellen Rechtsdenken ebenfalls ein eigenes geschichtliches Legitimitätskonzept versteckte (298), leuchtet theoretisch ein und unterstreicht den Standort im Zeitalter der Ideologien. ...
"Es war 1mal 1 finsterer Wald ..." : Grimms Märchen in der aktuellen Kinder- und Jugendliteratur
(2012)
Was alles unter der literarischen Marke "Märchen" auf dem Kinder- und Jugendbuch-Markt firmiert, ist äußerst variantenreich – vom Wimmelbuch im Großformat bis zum SMS-Märchen in 160 Zeichen. Neben dem üblichen Dauersortiment tun sich auch immer mehr Parallelwelten zu den Grimm'schen Märchen auf: Dazu gehören beispielsweise die Märchen-Lovestories für Mädchen, in denen Märchen-Figuren als Strippenzieherinnen in der realen Welt auftreten, ebenso wie die Einbindung der Brüder Grimm in Jugendthriller. Die Verlage suchen Kontakt zum jungen Publikum. Vielfältige crossmediale Angebote, Apps und Fanclubs im Netz bedienen den modernen Märchen-User.
Im Rahmen dieser Arbeit wurden zwei verschiedene Zerfallsprozesse behandelt. Zunächst wurde im Rahmen des erweiterten Linearen Sigma-Modells die Antwort auf die Frage gesucht, welches Teilchen als chiraler Partner des Nukleons in Frage kommt. Dazu wurde der Zerfall des chiralen Partners in ein Nukleon und ein skalares Teilchen betrachtet. Das skalare Teilchen wurde mit dem Tetraquark-Zustand f0(600) identifiziert. In Augenschein genommen wurden die Resonanzen N(1535) und N(1640). Aufgrund der berechneten Zerfallsbreiten erkannte man im Falle von N(1650) eine größere Übereinstimmung mit den experimentellen Werten. Die Zerfallsbreite von 45.91 MeV liegt in der Größenordnung des im Particle Data Book verzeichneten Intervalls. Der Wert, den man bei Verwendung von N(1535) als Ausgangsteilchen erhielt, ist allerdings gegenüber der Vorhersage zu groß.
Ein nächster Schritt im Studium dieses Sachverhalts stellt das erweiterte Misch-Szenario dar. Es beinhaltet nicht nur zwei, sondern vier Spinoren. Zwei davon beschreiben Nukleon-Resonanzen, zwei sind mögliche chirale Partner. Da die Zustände mischen, wird der chirale Partner nicht eindeutig durch ein, sondern durch zwei Resonanzen repräsentiert. Weiterhin steht die eingehende Betrachtung des Ursprungs von m0 aus. Dazu muss außer derWechselwirkung mit dem Tetraquark-Zustand auch die Wechselwirkung eines Glueballs mit den beteiligten Hadronen berücksichtigt werden. Dadurch erhält die Masse von m0 einen Anteil, der aus dem Glueball-Kondensat stammt. Dies muss beim Rückschluss auf die Nukleonmasse beachtet werden.
Als nächstes wurde der Zerfall des pseudoskalaren Glueballs in zwei Nukleonen betrachtet. Da die Kopplungskonstante dieses Zerfalls noch nicht experimentell bestimmt wurde, wurde ein Verhältnis zwischen zwei Zerfallskanälen berechnet. Es zeigte sich, dass der Zerfall in zwei Nukleonen fast doppelt so wahrscheinlich ist wie der Zerfall in Nukleon und chiralen Partner, der an der Energieschwelle liegt. Die Berechnung wurde mit einem Teilchen der Masse 2.6 GeV als Glueball durchgeführt. Die Untersuchung derart schwerer Glueballs wird in naher Zukunft erstmalig im Rahmen des PANDA-Experiments der GSI möglich sein.
Zukünftige Studien sollten die Beteiligung des Glueballs an gemischten Zuständen berücksichtigen. Außerdem sollte ein möglicher skalarer Glueball in die Betrachtung miteinbezogen werden.
Wirtschaftskrisen sind nichts Neues. Sie zählen im Laufe der Jahrhunderte zu wiederkehrenden Ereignissen. Seit dem 19. Jahrhundert strahlen sie allerdings meist weit über das ökonomische Geschehen hinaus. Ihre Ursachen sind vielfältig und lassen sich nicht allein auf das Verhalten einzelner Personen oder "der Märkte" reduzieren. Die als so beunruhigend wahrgenommenen Spekulationenmüssen als ein notwendiges Moment allen wirtschaftlichen Handelns betrachtet werden und gehören zu den Rhythmen, die – so zeigen auch die jüngsten Entwicklungen – durch staatliche Interventionen nicht ohne Weiteres umzukehren sind.
Inhalt dieser Arbeit ist die Entwicklung einer digitalen Korpusanwendung zur türkeitürkischen Dialektologie, in welcher der Inhalt des in Kapitel 3.1 beschriebenen Wörterbuchs komplett enthalten und umfangreich durchsuchbar sein soll. Da das Dialektwörterbuch insgesamt 126.468 Einträge enthält, ist eine manuelle Recherche darin äußerst zeitintensiv und unkomfortabel. Selbst die Suche innerhalb einer digitalen Version, die z. B. in einer Word-Datei gespeichert sein kann, ist nicht komfortabel möglich, sobald Optionen bzw. Einschränkungen getätigt werden sollen, wie z. B. die Beschränkung der Ergebnisse auf das Vorkommen in einer bestimmten Provinz. Daher ist es das Ziel der Entwicklung, den Anwendern folgende Suchmöglichkeiten zu bieten: Das Wörterbuch soll entweder komplett im Volltext durchsucht werden können, oder nur innerhalb des Lemmas1. Dabei soll jeweils die Angabe einer oder mehrerer Provinzen möglich sein, sodass die Suchergebnisse nur jene Einträge beinhalten, in denen Suchbegriff und Provinz in der gleichen Zeile enthalten sind. Die Treffer der Suche sollen farbig hervorgehoben sein, damit insbesondere bei großen Wörterbucheinträgen nicht manuell nach den darin enthaltenen Suchbegriffen gesucht werden muss, sondern diese dem Anwender direkt auffallen. Außerdem ist es wünschenswert, mittels Platzhaltern und sogenannten Coversymbolen nach Wortformen und phonetisch bedingten Allomorphen suchen zu können. Letzteres ist für Linguisten, die sich mit dem Türkischen beschäftigen, bei der Eingabe der Suchbegriffe äußerst praktisch, da das Türkische eine vokalharmonische Sprache ist, in der phonetisch bedingte Varianten üblicherweise durch die Schreibung mit Coversymbolen dargestellt werden: z. B. -lAr für die Pluralallomorphe -lar und -ler...
Rezension zu: Dagmar Stutzinger : Griechen, Etrusker und Römer. Eine Kulturgeschichte der antiken Welt im Spiegel der Sammlungen des Archäologischen Museums Frankfurt Regensburg 2012, Schnell & Steiner, ISBN 978-3-7954-2510-4, 528 Seiten mit 220 Farbabbildungen und 345 Schwarz-Weiß-Abbildungen, 49,95 Euro.
In dieser Arbeit wurde das Verhalten von repulsiv gebundenen Teilchenpaaren (Dimeren) in eindimensionalen optischen Gittern untersucht. Repulsiv gebundene Teilchenpaare sind metastabile Zustände, die nicht im freien Raum, dafür aber in geordneten Potentialen, wie optische Gitter sie darstellen, vorkommen können. In einem analytischen Teil beschäftigten wir uns mit der Herleitung effektiver Hamiltonians für Dimersysteme. Diese wurden dann unter Verwendung des Time Evolving Block Decimation-Algorithmus (TEBD) numerisch untersucht...
In einem der letzten Blogposts hat Martin Haase „humanitäre Interventionen“ als Neusprech bezeichnet, da sie eigentlich „Krieg“ meinen. Dem wird in der Regel entgegen gehalten, dass diese Subdifferenzierung sich nicht auf die Praxis des Krieges, des „Bombenwerfens, Tötens und Besetzens“ bezieht, sondern auf die Kriegsmotivation. Es handelt sich nicht um einen Angriffkrieg um Ölfelder zu erobern, sondern um einen Krieg um Genoziden Einhalt zu gebieten. Die Bezeichnung „humanitäre Interventionen“ hat nur den Anspruch eine Motivlage zu benennen, nicht die Praxis des Kriegführens selbst.
Tom Koenigs reagierte in einem Twitter-Kommentar:..
Künftig ist eingeschränkt der Einsatz der Bundeswehr im Innern erlaubt – und niemand kommentiert. Niemand? Doch: die Juristin und Schriftstellerin Juli Zeh ruft in der Süddeutschen Zeitung ein fassungsloses „Hallo?“ (SZ 01.09.2012, S. 2) in die schweigende Öffentlichkeit. Wie kann es sein, das eine „heilige Kuh“ der deutschen Sicherheits- und Erinnerungskultur nach dem Zweiten Weltkrieg geschlachtet werde, ohne dass es zu öffentlichen Protesten oder zu anhaltenden Debatten komme?
Schuld daran sei der Terroranschlag am 11. September 2001. Die Bilder der einstürzenden Türme treten in Konkurrenz zu den Bildern des brennenden Europas der Jahre 1939-1945. Aus dem Nie wieder Krieg! wird ein Nie wieder 9/11! Eine solche Verschiebung sei dem „apokalyptischen Szenario“ der Bilder von New York geschuldet, das „sachliches Denken behindere“. Kein Richter könne sich vorstellen, zuschauen zu müssen, wie Flugzeuge ungehindert in den Reichstag steuern. Zwar sei kein Beschuss erlaubt, nur das Abdrängen und Warnschießen durch Kampflugzeuge (oder durch Drohnen), gleichwohl sei damit ein entscheidendes „Leck“ in eine der wichtigsten Nachkriegserrungenschaft der Bundesrepublik geschlagen worden...
Apokalypsen beruhen auf tradierten Bildern, fiktiven Imaginationen und kulturellen Deutungsmustern. Damit sind weder reproduzierbar noch wissenschaftlich mit validen Methoden beschreibbar. Auch das traditionell starke Risikokonzept der Sozialwissenschaften zur Beschreibung der Zukunft ihres Forschungsgegenstandes greift hier nicht. Der folgende Beitrag unternimmt deshalb den Versuch, im Rahmen dieser sozialwissenschaftlichen Ansätze nach den spezifisch sicherheitskulturellen Aspekten von Apokalypsen zu fragen. Dazu wird eine Typisierung vorgeschlagen, die sich historisch auf das 20. Jahrhundert beschränkt und sich in drei Phasen unterteilt. Kreisten zu Beginn des 20. Jahrhunderts die apokalyptischen Bedrohungsszenarien noch um die Subjekte (die apokalyptische Bedrohung der Menschheit ging von der modernen Gesellschaftsordnung, d.h. von der Menschheit selbst aus), so geriet gegen Mitte des 20. Jahrhunderts zunehmend die objektive Welt der Dinge und Technologien unter Verdacht, eine Apokalypse auszulösen. Inzwischen scheint sich mit Übergang zum 21. Jahrhundert eine dritte Phase von apokalyptischen Szenarien auszudifferenzieren: Existentielle Bedrohungen gehen nicht mehr von identifizierbaren Bedrohungen wie gesellschaftlichen Entfremdungen oder Atomwaffen aus. Vielmehr gelten das Nicht-Identifizierbare, die Ununterscheidbarkeit als existentielle Bedrohung. Auf die Apokalypse der Subjekte und der Apokalypse der Objekte, so der Vorschlag dieses Papiers, folgt die ‚apokalyptoide’, d.h. Apokalypse-ähnliche Situation.
Der vorliegende Beitrag versucht, einen Überblick über die aktuelle Zypern-Archäologie in Deutschland zu geben. Neben einer Zusammenfassung der Ausgrabungen und Feldforschungen, insbesondere seit dem 2. Weltkrieg, wird der Schwerpunkt auf den deutschen Sammlungen und Museen liegen, die zyprische Antiken beherbergen. Sie können an dieser Stelle nicht im Detail vorgestellt werden, doch soll durch die wichtigsten Eckdaten ihrer Entstehung und Zusammensetzung nicht nur ein Bild der Kypriaka in öffentlichem Besitz, sondern auch ein Baustein zu einer Geschichte des Sammelns zyprischer Altertümer in Deutschland geliefert werden. Eine Zusammenstellung von zypern-relevanten Ausstellungen sowie von universitären Promotions- und Forschungsprojekten rundet die Übersicht ab.
Auch nach mehr als 70 Jahren gehört die britische Appeasement-Politik zu den umstrittenen Themen der europäischen Geschichte im 20. Jahrhundert. Schon im Zweiten Weltkrieg als "Guilty Men" bezichtigt, und dann nach 1945 von Churchill wortgewaltig als Schwächlinge und einfältige Toren an den Pranger gestellt, gelten Neville Chamberlain und seine Mitstreiter seinen Kritikern als Politiker, die die wahren Ziele von Hitlers Außenpolitik nicht erkannten und so seinem Machtzuwachs nicht rechtzeitig Grenzen setzten. Demgegenüber verweisen seine Unterstützer auf die begrenzten Möglichkeiten der britischen Außenpolitik, die einen härteren Kurs der Eindämmung nicht zugelassen hätten. ...
In den letzten Jahren haben die Forschungsaktivitäten im Bereich Thermoelektrik stetig zugenommen. Das neu erweckte Interesse an der Thermoelektrik ist zurückzuführen auf neue nanostrukturierte Materialien, Quantenschicht-Strukturen und Nanodrähte, welche
eine wesentliche Steigerung der thermoelektrischen Effektivität Z im Vergleich zum Massivmaterial versprechen. Für Nanodrähte ist die größte Steigerung der thermoelektrischen Effektivität zu erwarten. Zur Bestätigung der Theorie bedarf es neuer Messmethoden zur Bestimmung des Seebeck-Koeffizienten S, der elektrischen Leitfähigkeit σ und der Wärmeleitfähigkeit λ, um hieraus eine Steigerung der thermoelektrischen Effektivität Z = (Sexp2)σ/λ experimentell zu bestätigen.
Der Schwerpunkt der Doktorarbeit lag in der Untersuchung thermoelektrischer Eigenschaften von Nanodrähten. Hierzu wurden neueMessmethoden zur Bestimmung der elektrischen und thermischen Leitfähigkeit von Nanodrähten entwickelt.
Die elektrische und thermische Leitfähigkeit von Pt-Nanodrähten wurden mit dem in dieser Arbeit entwickelten λ-Chip gemessen. Die elektrische Leitfähigkeit der Pt-Nanodrähte ist im Vergleich zum Massivmaterial entsprechend der klassischen Size-Effekt-Theorie reduziert. Ebenso wurde eine Abnahme der Wärmeleitfähigkeit beobachtet. Die Ergebnisse stimmen mit den im Rahmen der klassischen Size-Effekt-Theorie zu erwartenden Resultaten gut überein, jedoch bedarf die Reduzierung der Lorenz-Zahl noch einer theoretischen Erklärung.
Im Weiteren wurde die elektrische Leitfähigkeit von BixTe1-x und BixSb1-x-Nanodrähten mit dem λ-Chip bestimmt. Hierzu wurden zunächst unterschiedliche Kontaktmaterialien getestet, um die Diffusion des Kontaktmaterials in den Nanodraht auszuschließen. Als bewährtes Kontaktmaterial stellte sich ein Schichtsystem aus Titan und Gold heraus. Die Ti-Schicht wirkt hierbei als Diffusionsbarriere und Haftvermittler-Schicht. Die Wärmeleitfähigkeit der Bi-haltigen Nanodrähte konnte mit dem λ-Chip nicht gemessen werden, da die Unterätzung der Nanodrähte mittels reaktivem Ionenätzen die Nanodrähte angriff. Als Alternative können die Nanodrähte auf dem λ-Chip mit einem fokusierten Ionenstrahl unterätzt werden. Der Aufwand hierzu ist jedoch relativ hoch und diese Alternative wurde deshalb nicht weiter verfolgt. Als weitere Alternative wurde der Z-Chip entwickelt. Hierbei werden die Nanodrähte auf den fertigen Chip aufgebracht und mittels Elektronenstrahl-induzierter Deposition an den elektrischen Kontakten fixiert. Der Chip ermöglicht die Messung der elektrische Leitfähigkeit in 4-Punkt-Anordnung, der Wärmeleitfähigkeit und des Seebeck-Koeffizienten an
einem einzelnen Nanodraht. Somit ist die Bestimmung der thermoelektrischen Effektivität an einem Nanodraht möglich. DesWeiteren wurden die theoretischen Grundlagen zur Bestimmung der Wärmekapazität an einzelnen Nanodrähten mit dem Z-Chip präsentiert. Zum Zeitpunkt der Durchführung dieser Arbeit fehlte jedoch das notwendige Equipment zur Ausführung der Wärmekapazitätsmessung an einzelnen Nanodrähten.
Des Weiteren wurde die Cross-Plane Methode zur Bestimmung der Wärmeleitfähigkeit an eingebetteten Nanodrähten entwickelt. Analog der Messmethode, welche für die Einzeldrahtmessungen verwendet wird, handelt es sich hierbei um eine stationäre „Joule-Heating“ Methode. Die Temperaturdifferenz wird aus der Widerstandsänderung einer auf die eingebetteten Nanodrähte aufgebrachten Heizschicht bestimmt.Mit derMethode wurde die Wärmeleitfähigkeit von BixTe1-x-Nanodrähten ermittelt.
Die elektrische Leitfähigkeit wurde von BixTe1-x-Nanodrähten unterschiedlicher Zusammensetzung und Herstellungsparameter mit dem λ- und dem Z-Chip bestimmt. Die gemessenen Nanodrähte zeigen sowohl intrinsisches wie extrinsisches Leitungsverhalten verbunden mit einer, im Vergleich zum Volumenmaterial, reduzierten Temperaturabhängigkeit der elektrischen Leitfähigkeit infolge von Oberflächen- und Korngrenzenstreuung der Ladungsträger. Die elektrischen Leitfähigkeitsmessungen stimmen mit Beobachtungen anderer Gruppen gut überein.
Die Wärmeleitfähigkeit konnte an einem einzelnen BixTe1-x-Nanodraht und an eingebetteten BixTe1-x-Nanodrähten gemessen werden. Die Wärmeleitfähigkeit ist gegenüber dem Massivmaterial reduziert. Die Ergebnisse sind in guter Übereinstimmung mit bisher publizierten Ergebnissen von Bismuttellurid-Nanodrähten.
Der Beitrag diskutiert den unlängst veröffentlichten Referentenentwurf eines Finanzstabilitätsgesetzes, der vorsieht, dass die Bundesbank ab 2013 ein Mandat zur makroprudenziellen Überwachung bekommt. Die Entscheidungen über die Vorschläge, die sich vor allem an die Bundesregierung oder an die Bundesanstalt für Finanzdienstleistungsaufsicht (Bafin) richten dürften, wird ein neuer Ausschuss für Finanzstabilität beim Bundesfinanzministerium treffen. Der Autor befasst sich mit der Zusammensetzung dieses Ausschusses und mit den Instrumenten, die für die Umsetzung der Empfehlungen des Ausschusses zur Verfügung stehen.
Die Geschichte von Sklavenhandel und Sklaverei im britischen Einflussgebiet ist in den letzten Jahrzehnten intensiv behandelt worden. Dabei ging es in der öffentlichen Wahrnehmung um das – nicht zuletzt ‚erinnerungspolitische‘ – Problem der Verstrickung britischer Kaufleute und Politiker in den Sklavenhandel, um die Bedeutung der Sklaverei für die britische Wirtschaft und den britischen Aufstieg zur Weltmacht, schließlich um die Motive der Pionierrolle, welche die britische Öffentlichkeit und die britische Regierung für die Kritik an und die Abschaffung von Sklavenhandel und Sklaverei einnahmen. Die vorliegende Dissertation nimmt sich vor, das Bild zu ergänzen, in dem sie nach einer nur auf den ersten Blick marginalen Gruppe fragt: Afrikanerinnen und Afrikanern, die sich weder auf ‚Staatsbesuch‘ noch als Arbeitskräfte in Großbritannien aufhielten, sondern die danach strebten, in England eine britische bzw. europäische Bildung zu erhalten. Die Gruppe erscheint Ries aus zwei Gründen besonders signifikant: Zum einen, weil sie eine entscheidende Funktion für ‚Kulturkontakte‘ zwischen Großbritannien und Afrika hatte, da sie möglicherweise dazu beitragen konnte, britische Bilder und Perzeptionen von Afrika und Afrikanern in anderer Weise zu prägen, als Sklaven oder lokale Potentaten; zum anderen, weil sie die Möglichkeit bietet, die Veränderungen der Haltung(en) der britischen Öffentlichkeit im Allgemeinen und besonders an Afrika interessierter Gruppen im Besonderen abseits der (bereits hinreichend erforschten) Debatten zum Sklavenhandel genauer zu untersuchen.
Beim Übergang von der frühneuzeitlichen Ständegesellschaft hin zu den Nationalstaaten des 19. und 20. Jahrhunderts kommt der Herausbildung eines geographisch und politisch definierten Territoriums, des Territorialstaats, eine wichtige Funktion zu. Ein Zusammenschluss von Herrschaftsgebieten zu einer geographisch-politischen Einheit konnte sich in Form der Annexion des Schwächeren durch den Stärkeren vollziehen, war aber auch im gegenseitigen Einverständnis der politischen Entscheidungsträger denkbar. Im Fall einer Union unterschied man bereits sehr früh zwischen den Typen der Realunion und der Personalunion. Während in einer Realunion völkerrechtliche Vereinbarungen für beide Partner gleichermaßen galten, nahm die Personalunion einen besonderen Status ein, in der allein die Person des Herrschers die Verbindung zwischen beiden Staaten darstellte. Diese streng juristische Definition galt jedoch lediglich für die politischen Institutionen. Jenseits der staatlichen Ebenen fanden sich Formen des Transfers, die einer Personalunion einen besonderen, transnationalen Charakter verleihen konnten. Inwiefern solche Verbindungen, die unter dem Begriff des "composite statehood" zusammengefasst werden, eine gesamteuropäische Entwicklung darstellten, bleibt innerhalb der Forschung umstritten.
Ein charakteristisches Merkmal von Autoimmunerkrankungen ist der selektive Angriff des Immunsystems auf einen einzigen Zelltyp, ein Organ oder Gewebe durch bestimmte T- und B-Lymphozyten. Die genaue Ursache von Autoimmunerkrankungen bleibt bislang ungeklärt, jedoch scheint eine bestimmte genetische Konstellation bei Zusammentreffen mit im weitesten Sinne umweltbedingten Faktoren die Reaktionen zu erklären. Zu solchen umweltbedingten Faktoren gehören auch Infektionen. Häufig werden Assoziationen zwischen Infektion und autoimmuner Erkrankung beobachtet. Auch kann bei einer akuten Infektion ein vorhandener Autoimmunprozess exazerbieren. Eine schnelle Verteidigung gegen Infektionen gewährleistet das angeborene Immunsystem, bevor das adaptive Immunsystem zum Tragen kommt. Die Moleküle, die bei diesen Abwehrprozessen frei werden, können zur T-Zell-Vermehrung führen, die einerseits eine effektive Selbstverteidigung möglich macht; ander erseits können sie aber auch die Vermehrung autoreaktiver T-Zellen zur Folge haben. An frühen Vorgängen nach dem Kontakt mit einem Pathogen ist eine Vielzahl von Zyto- und Chemokinen beteiligt. Typ-1-Interferone (IFN1) sind ebensolche Zytokine, die vor allem in der Abwehr gegen Viren eine Rolle spielen und in mehrschrittigen Prozessen auch zur Aktivierung von T- und B-Zellen führen. IFIH1 ist ein intrazellulärer Rezeptor, der dsRNA im Zytosol detektiert und in der Folge die Transkription von IFN1 aktiviert. Veränderungen im Gen dieses Rezeptors zeigen Assoziationen zu Typ-1-Diabetes (T1D) und bieten einen funktionellen Berührungspunkt zwischen früher Infektabwehr durch das angeborene Immunsystem und der letztlich gewebszerstörerischen T- und B-Zell-Reaktion. In dieser Arbeit wurde daher die Assoziation dreier endokriner Autoimmunopathien mit dem IFH1-Polymorphismus rs1990760 durchgeführt, der in der Literatur als deutlich assoziiert mit T1D beschrieben wird. Mit Hashimoto-Thyreoditis, Morbus Basedow und Morbus Addison wurden Krankheiten gewählt, die im genetischen Hintergrund viele Gemeinsamkeiten untereinander und mit T1D aufweisen. Durch die in der Literatur beschriebenen Assoziationen mit T1D rückt nun der IFIH1-rs1990760 Polymorphismus potentiell auch in das genetische Anfälligkeitsprofil dieser endokrinen Autoimmunopathien. Für die Assoziationsanalyse wurde in dieser Arbeit DNA von betroffenen Individuen und gesunden Kontrollen mittels RT-PCR auf den IFIH1-Polymorphismus rs1990760 (Allele „A“/„G“) typisiert und die Genotyp- und Allelhäufigkeiten verglichen. Außerdem wurden Familienanalysen durchgeführt und die Transmission der Allele auf Unterschiede im Vererbungsverhalten hin untersucht. Es konnten keine statistisch relevanten Assoziationen zwischen dem IFIH1-Polymorphismus rs1990760 und Hashimoto-Thyreoditis, Morbus Basedow und Morbus Addison gefunden werden. Weiterhin wurden Subgruppen gebildet, um eventuell in der Gesamtgruppe nicht erkennbare Trends aufzudecken. Für Hashimoto-Thyreoditis und Morbus Basedow wurde der HLA-Typ DQ2 als Risikotyp angenommen, für Morbus Addison der Typ HLA-DQ2/DQ8. Der Antikörperstatus der untersuchten Individuen wurde ebenfalls in die Untersuchung einbezogen. In der Familienanalyse mit an Hashimoto-Thyreoditis erkranktem Kind wurden Subgruppen gebildet, die den TPO-Ak und Tg-Ak-Status der Eltern berücksichtigen. Bei Morbus Basedow wurde der TSH-R-Antikörper bei der Fall-Kontroll-Analyse zur Subgruppenbildung herangezogen. Wenn sich auch keine statistisch eindeutigen Assoziationen nachweisen ließen, so waren bei Hashimoto-Thyreoditis und Morbus Basedow in einigen Subgruppen doch Tendenzen zu erkennen, die eine Beteiligung des Polymorphismus an der genetischen Anfälligkeit vermuten lassen könnten. Die beobachteten Trends deuten darauf hin, dass in bestimmten Patientengruppen der untersuchte Polymorphismus eine Rolle in der Anfälligkeit spielen könnte.
Lebensstil und Nationalstaat
(2012)
Ziel der folgenden Studie ist es, in vier aufeinander aufbauenden Schritten zu untersuchen, ob oder inwieweit in der gegenwärtigen deutschen Lebensstilforschung die
wechselseitige Beeinflussung zwischen "Lebensstilen" einerseits und dem deutschen "Nationalstaat" andererseits analytisch aufbereitet und hinterfragt wird. Im Vordergrund dieses Forschungsvorhabens steht die Frage, wie Individuen respektive gesellschaftliche Gruppen in der Bundesrepublik Deutschland über ihren Lebensstil im politischen Gebilde des deutschen Nationalstaates verankert sein könnten.
Demzufolge wird das relativ neuartige soziologische Moment der Lebensstile mit der vornehmlich politologischen Materie Nationalstaat kontrastiert. Diese Gegenüberstellung soll einen neuartigen Beitrag dazu leisten, tatsächliche inhaltliche und strukturelle Anknüpfungspunkte dieser gegenwärtig weitestgehend getrennt verlaufenden gesellschaftswissenschaftlichen Diskurse aufzuzeigen, um sie folgenden Debatten zuzuführen, in denen die weitere gesellschaftliche bzw. nationalstaatliche Gegenwart und letztlich auch Zukunft fokussiert wird. Dem Forschungsansatz liegen dabei zwei zentrale Hypothesen zugrunde: - I - Zum einen die Annahme, dass allen in der gegenwärtigen deutschen Lebensstilforschung maßgeblichen Studien keine analytisch verwertbare nationalstaatliche, aber auch kollektive Rahmung zugrunde liegt und gerade in diesem Auslassen eine elementare Schwäche der herkömmlichen Lebensstiltheorien zu identifizieren sein könnte. - II - Zum anderen die Vermutung, dass auch in allen Studien, die im Mittelpunkt der deutschen Nationalstaatstheorie bzw. -forschung stehen, die analytische Kategorie Lebensstil letztlich keine Berücksichtigung findet und gerade das Fehlen eines derartigen empirischen Ansatzes als Teilursache des sehr hohen Abstraktionsgrades dieses gesellschaftswissenschaftlichen Teilbereichs erkannt werden kann.
Beide zentralen Hypothesen gehen mit der äußerst interessanten Frage einher, ob nicht durch eine wechselseitige Verknüpfung einerseits der vor allem empirisch fundierten Ansätze der Lebensstilforschung und andererseits der eher theoretischen Modelle der Nationalstaatstheorie
zumindest punktuell konzeptionelle Schwächen beider Theoriestränge zu beheben sind.
Im ersten Arbeitsabschnitt der hier vorgelegten Studie werden die vier soziologischen Hauptwerke Emile Durkheims einem eingehenden analytischen Diskurs unterzogen. Es wird geprüft, in welcher Hinsicht einzelne analytische Kategorien und Thesen der Durkheimschen Gesellschaftstheorie einen Beitrag zur Erweiterung des Untersuchungsrasters etablierter Lebensstil- und Nationalstaatstheorien zu leisten und gegebenenfalls konzeptionelle Lücken in der Rekonstruktion und Reflektion des sozialen Raumes zu schließen vermögen. Hierauf aufbauend werden in einem zweiten Arbeitsschritt zunächst die noch immer als herkömmliche Klassiker angesehenen Lebensstiltheorien Max Webers, Georg Simmels und Pierre Bourdieus einer definierten Betrachtung unterzogen. Im Rahmen dieser Untersuchung, in der die relevanten Lebensstiltheorien Webers, Simmels und Bourdieus darzulegen sind, werden die unterschiedlichen konzeptionellen Ansätze Webers und Simmels aufgezeigt und zusammen mit den aus dem vorangehenden Kapitel über die Durkheimsche Soziologie stammenden Erkenntnissen der Lebensstiltheorie Bourdieus gegenüber gestellt. Die Frage nach dem möglichen Wechselverhältnis zwischen Lebensstilen und einem modernen Nationalstaat westlicher Prägung ist bei der Betrachtung der angeführten "klassischen" Lebensstiltheorien stets eingebunden.
Im anschließenden dritten Arbeitsschritt werden die in der gegenwärtigen deutschen Sozialforschung maßgeblichsten Lebensstilkonzeptionen einer eingehenden, mehrstufigen Untersuchung unterzogen. Hierbei werden die auf Seiten der sog. "Strukturierungsmodelle" zentralen Studien Werner Georgs, Annette Spellerbergs und Hartmut Lüdtkes, in denen modernen Lebensstilen ausgehend von einer eindeutigen Rückbindung an klassische objektive Grundlagen resp. Ressourcen auch vermehrt subjektive Facetten zugebilligt werden, und das sog. "Entstrukturierungsmodell" von Karl Hörning et al. mit den in den vorangehenden Arbeitsschritten ausgearbeiteten analytischen Kategorien kontrastiert.
Ausgehend hiervon werden im vierten Kapitel zunächst noch einmal die im vorangehenden dritten Kapitel tatsächlich identifizierten expliziten kollektivsoziologischen bzw. nationalstaatlichen Momente der reflektierten Lebensstiltheorien zusammengefasst, um in einem anschließenden Arbeitsschritt jeweils exemplarische Ansätze herauszuarbeiten, wie - wenn möglich oder erforderlich – etwa die in dieser Studie fokussierten Lebensstilmodelle vor allem anhand markanter kollektivsoziologisch, nationalstaatstheoretisch, aber auch sozialstrukturanalytisch relevanter Items konkret erweitert werden können. Diesem für Studie "Lebensstil und Nationalstaat" maßgeblichen Vorhaben liegt dabei die Prüfung des zweiten Bestandteils der zentralen Hypothese I zugrunde, dass auf diese Weise ein Beitrag zur Weiterentwicklung der analysierten Lebensstilkonzeptionen geleistet werden kann und diese zugleich auf eine profundere theoretische Basis gestellt werden können. Der zweite Schwerpunkt des vierten Kapitels widmet sich dann der Klärung der überaus fordernden Frage nach einer sinnvollen Annäherung bzw. wechselseitigen Ergänzung der deutschen Lebensstilforschung und der Nationalstaatstheorie in Deutschland und wird konsequenter Weise durch eine pointierte Analyse klassischer und moderner politikwissenschaftlicher Nationalstaatstheorien abgebildet.
Die vorliegende Arbeit befasst sich mit der Entwicklung einer spektroskopischen Methode für die medizinische Diagnostik und zielt auf die Einführung neuer analytischer Methoden in die klinische Praxis, die eine höhere Qualität bei der Behandlung von Patienten sowie eine Kostensenkung versprechen. Es wird eine reagenzienfreie infrarotspektroskopische Messmethode vorgestellt, mit der die Konzentrationen bestimmter Inhaltsstoffe von Körper- und anderen Flüssigkeiten quantitativ bestimmt werden können. Dabei kommt das kommerzielle FTIR- (Fourier-Transform Infrarot-) Spektrometer ALPHA der Firma Bruker zum Einsatz, für das eine spezielle ATR- (Abgeschwächte Totalreflexion) Messzelle konstruiert wurde. Diese eignet sich sowohl für Durchflussmessungen bei Volumenströmen von bis zu 1 l/min als auch für diskrete Proben mit einem minimalen Volumen von 10 µl. Die Kombination aus Spektrometer und Messzelle stellt somit ein kompaktes Messgerät dar, das zur Steuerung und Auswertung lediglich einen Computer benötigt und dessen Stabilität ebenfalls Langzeitmessungen erlaubt. Es stellt damit eine Basis für ein neuartiges Medizingerät dar, das auch außerhalb der Laborumgebung und insbesondere in der klinischen Routine von ungeschultem Personal eingesetzt werden kann.
Die quantitative Auswertung der Spektren erfolgt mittels multivariater Kalibrierung und PLS (Partial Least Squares) Regression. Dabei werden für die unterschiedlichen Inhaltsstoffe entsprechende Kalibriermodelle verwendet, die aus einer Reihe sorgfältig ausgewählter Proben erstellt wurden. Die Auswahl bezieht sich dabei vor allem auf einen breiten Konzentrationsbereich und auf möglichst unabhängig voneinander schwankende Konzentrationswerte der Inhaltsstoffe. Es wurden daher sowohl Proben im physiologischen als auch im pathologischen Bereich verwendet. Da die Konzentrationswerte der Kalibrierproben bekannt sein müssen, wurden die Proben mittels konventioneller klinischer Methoden analysiert. Die Genauigkeit dieser Referenzanalytik begrenzt dabei die maximale Genauigkeit der vorgestellten Methode.
Im Rahmen dieser Arbeit wurden Kalibriermodelle für die Inhaltsstoffe Glucose, Harnstoff, Creatinin und Lactat in der Waschlösung bei der Hämodialyse (Dialysat) sowie für die Inhaltsstoffe Glucose, Harnstoff, Cholesterol, Triacylglyceride, Albumin und Gesamtprotein in Vollblut und ebenso für Hämoglobin und Immunglobulin G in hämolysiertem Vollblut erstellt. Im Fall von Dialysat wurden hierfür sowohl künstlich erstellte sowie auch bei realen Dialysebehandlungen von Patienten entnommene Proben verwendet. Für Vollblut wurden bestehende Spektren an das neue Messgerät angepasst und durch Spektren neuer Blutproben erweitert. Die hiermit erreichte Genauigkeit und Präzision genügt in den meisten Fällen bereits klinischen Ansprüchen.
Für Dialysat wird gezeigt, dass mit dem vorgestellten Aufbau bereits kontinuierliche inline-Messungen direkt am Patienten möglich sind und gute Ergebnisse liefern. Dabei wurde sowohl auf eine einfache Anwendbarkeit während der Dialysebehandlung als auch auf eine einfache Bedienung mittels der vorgestellten Software geachtet. Das Gerät lässt sich somit problemlos in den klinischen Alltag integrieren und bietet aufgrund der Reagenzienfreiheit eine kostengünstige Methode zur kontinuierlichen und regelmäßigen Überwachung der Behandlungsverläufe.
Im Fall von Vollblut wird gezeigt, dass Messungen mit einer Probenmenge von 10 µl beispielsweise aus der Fingerbeere prinzipiell möglich sind und ebenfalls reproduzierbare Ergebnisse liefern. Damit steht eine präzise, einfache, kompakte und betriebskostengünstige Methode zur Verfügung, um in kurzer Zeit wichtige Blutparameter quantitativ bestimmen zu können.
Das kompakte und reagenzienfreie Messsystem erlaubt eine Vielzahl von Anwendungen, die insbesondere von den schnellen Analyseergebnissen und den geringen Verbrauchskosten profitieren. Beispielsweise beim Blutspendedienst, beim Hausarzt oder in Seniorenheimen kann die schnelle und einfache Ermittlung der hier untersuchten Blutparameter zur ersten Beurteilung des Patienten dienen und damit die Diagnose erleichtern. Der hohe Probendurchsatz und die vernachlässigbaren Betriebskosten führen in diesem Fall zu einer schnellen Amortisierung der Anschaffungskosten. Auch in Apotheken kann mit einem derartigen System ein erweiterter Service für Kunden angeboten werden.
Aufgrund des geringen Probenvolumens kommt das Messsystem ebenfalls für Anwendungen im Versuchstierbereich in Frage, beispielsweise für die Untersuchung von Mäuseblut in der German Mouse Clinic am Helmholtz Zentrum München. Die der Maus zu entnehmende Blutmenge und damit die Belastung des Tieres kann hierdurch erheblich reduziert werden.
Die Kompaktheit dieses universellen Systems erlaubt es weiterhin, eine Vielzahl anderer Flüssigkeiten zu untersuchen, die bereits erfolgreich infrarotspektroskopisch analysiert wurden. Dazu gehört unter anderem Urin, Bier und Wein.
In der Arbeit wird abschließend ebenfalls gezeigt, dass der Einsatz abstimmbarer Quantenkaskadenlaser zusammen mit der ATR-Technik prinzipiell die Möglichkeit eröffnet, die aufwändigen und teuren FTIR-Spektrometer zu ersetzen. Langfristig ist sowohl mit einer Verkleinerung des Aufbaus als auch mit einem Sinken des derzeit noch sehr hohen Anschaffungspreises zu rechnen. Der bereits verfügbare Abstimmbereich genügt zur Bestimmung der Glucosekonzentration. Eine Erweiterung, beispielsweise durch die Verwendung mehrerer Quantenkaskadenlaser mit unterschiedlichem Abstimmbereich, ermöglicht die Untersuchung weiterer Parameter.
Während der nationalsozialistischen Zeit und beginnend schon die Jahrzehnte davor, beobachtet man eine auffallende Zunahme von Jugendschriften aller Art, die auf altnordischer Literatur basierten. Es waren Adaptionen von Isländer- und Königssagas sowie der Snorra- und Lieder-Edda. Die Arbeit versucht Ursachen dafür zu finden und beschreibt dazu auch das Umfeld der Jugendlichen und die Strategien und Ziele, die man in der Erziehung im völkischen und nationalsozialistischen Sinn anhand der behandelten Literatur verfolgte.
Wohin steuert China?
(2012)
Von den deutschen Medien nur am Rande berichtet vollzieht sich in der Volksrepublik China ein Machtkampf innerhalb der Kommunistischen Partei (KPCh). Im Mittelpunkt: Bo Xilai, ehemaliger Parteichef in Chinas größter Stadt, Chongqing. Angesichts der wachsenden Macht Chinas ist verwunderlich, dass die Frage nach der personellen wie inhaltlichen Konsequenzen dieses Prozesses bislang weitgehend ausgespart blieb.
Was diskutiert werden muss
(2012)
Günter Grass hat ein polemisches Gedicht über Israel geschrieben. Inhaltlich ist es fehlerhaft, undifferenziert und einseitig. Aber auch die Reaktionen der deutschen Intellektuellen waren überzogen und teilweise unsachlich. Kurzum: Auf eine Provokation folgten hysterische Entgegnungen. Eine Reflexion über die deutsche Debattenkultur zu einem besonderen Thema.
Der chinesische Schriftsteller Liao Yiwu erhält in diesen Minuten in der Frankfurter Paulskirche den Friedenspreis des Deutschen Buchhandels. Mit Liao wird ein mutiger Mann geehrt, dessen Streben nach Freiheit ihn nicht nur mehrere Jahre in chinesische Gefängnisse, sondern bis an den Rand des Wahnsinns gebracht hat. Ich freue mich, dass Liao Yiwu geehrt wird, denn ich bewundere diesen vielleicht aufrechtesten Verfechter für die Freiheit.
Four more years!
(2012)
US-Präsident Barack Obama ist wiedergewählt. Das ist eine gute Entscheidung für Amerika. Denn ein Blick auf die drängendsten Probleme des Landes zeigt, dass der amtierende Präsident sie erkannt und angegangen hat. Sein Problem: Ihre Lösung wird viele Jahre brauchen. Wie schwer dies wird, zeigt allein, wie sehr die Kandidatur Obamas polarisiert. Ein Reiseeindruck aus dem wählenden Amerika.
Die Bedeutung staatlicher Souveränität und die Rolle des Staates werden seit einigen Jahren in Politik und Wissenschaft hitzig diskutiert und die Bedeutung staatlicher Souveränität in Frage gestellt: Die veränderten Problemlagen in Zeiten der Globalisierung hätten politische Bewältigungsstrategien notwendig gemacht, die nicht mehr durch intergouvernementale Kooperation zu lösen sei, argumentieren einige. Hinzu kommt der Ruf nach einer Stärkung kosmopolitischer Herrschaft. Doch es gibt auch Hinweise auf gegenteilige Entwicklungen.
Seit einigen Jahren wird in den IB über die künftige Rolle Chinas in der Weltpolitik diskutiert. Insbesondere seit die Turbulenzen im Weltfinanzsystem Amerika und Europa in die Krise gestürzt haben, zeigen sich große Teile der Öffentlichkeit besorgt über den wachsenden Einfluss der Volksrepublik. Aber wie wird sich China entwickeln? Eine Sammelrezension mehrerer 2011 zu diesem Thema erschienener Bücher.
Diese Arbeit zeigt, dass die optimale Verteilung von Individuen in Gruppen unter Beachtung ihrer Zeitpräferenzen ein NP-schweres Problem ist. Daher liegt es Nahe, dass für große Teilnehmerzahlen eine optimale Lösung nicht in praxistauglicher Zeit berechnet werden kann. Hier kann eine geeignete Heuristik Abhilfe schaffen.
Da dieses Problem in Universitäten für Studierende bei der Zuteilung der Übungsgruppen für Hunderte von Teilnehmern jedes Semester aufs Neue gelöst werden muss, macht es Sinn, dabei eine rechnergestützte Lösung einzusetzen.
In dieser Arbeit werden die gängigsten in Deutschland und insbesondere an der Goethe-Universität Frankfurt am Main verwendeten Gruppeneinteilungssysteme untersucht. Alle aktuell eingesetzten Lösungen weisen offensichtliche Mängel auf. In dieser Arbeit wird analysiert, weshalb es dazu kommt und gezeigt, wie diese Mängel vermieden werden können. Außerdem werden Kriterien entwickelt und diskutiert, die ein gutes Gruppeneinteilungssystem erfüllen sollte.
Es wird beschrieben, inwiefern eine gute mit einer Heuristik schnell berechenbare approximative Lösung des Gruppeneinteilungsproblems besser als eine perfekte Lösung sein könnte. Mehrere Heuristiken werden verglichen und eine für dieses Problem gut passende wird entwickelt und implementiert. Mithilfe der Beispielimplementierung und anhand anonymisierter Anmeldedaten für die Veranstaltungen aus vergangenen Jahren wird gezeigt, welche Ergebnisse bei dem Wechsel zu einem solchen System erreicht werden können.
Weiterhin wird analysiert, wie ein solches Gruppeneinteilungssystem an die anderen an Universitäten eingesetzten digitalen Systeme angekoppelt werden kann. Das ist notwendig, um zu vermeiden, dass die redundanten Studierendendaten doppelt gepflegt werden müssen. Somit werden Konsistenz und Korrektheit der Daten bei dem Einsatz eines neuen Systems gefördert.
Abschließend wird ein Ausblick in die Zukunft der Gruppeneinteilungssysteme gegeben und beschrieben, welche Aspekte in diesem Bereich weiterhin wichtig sein könnten.
Rezension zu: Maria R.-Alföldi, Edilberto Formigli und Johannes Fried : Die römische Wölfin. Ein antikes Monument stürzt von seinem Sockel Sitzungsberichte der Wissenschaftlichen Gesellschaft an der Johann Wolfgang Goethe-Universität Frankfurt am Main, Band XLIX, Nr. 1, Franz Steiner Verlag, Stuttgart 2011, ISBN 978-3-515-09876-2, 161 Seiten, 48 Euro.
Das Gesetz zur Änderung des Vormundschafts- und Betreuungsrechts ist am 14. April 2011 vom Deutschen Bundestag beschlossen worden; der Bundesrat hat am 25.05.2011 zugestimmt. Dieses Gesetz trat – mit einigen Ausnahmen, die erst ein Jahr nach der Verkündung des Gesetzes in Kraft treten – am 6.7.2011 in Kraft. Der Schwerpunkt dieses Beitrags soll nicht bei den durch diese Reform bereits erfolgten bzw. demnächst in Kraft tretenden Änderungen und den sich bereits abzeichnenden Schwierigkeiten seiner Umsetzung liegen, vielmehr soll es um die Ziele und Grundsätze einer noch weitergehenden Reform (zweite Stufe) gehen, die die Rechtspolitik im Rahmen der Verabschiedung dieses Gesetzes für erforderlich gehalten und bereits in Aussicht gestellt hat (zweite Stufe). Dennoch sollen zunächst die Essentials dieses ersten wichtigen und richtigen Reformschritts nochmals in Stichworten am Anfang dieses Beitrags stehen. Dieses Gesetz wurde auch schon als "Amtsvormundschaftsverbesserungsgesetz" und als Minimalkompromiss apostrophiert, was angesichts der Fokussierung dieses ersten Reformschrittes nicht überrascht.
Der Mietspiegel ist ein Instrument im deutschen Vergleichsmietensystem, mit dem die Mietpreise auf dem privaten Wohnungsmarkt reguliert werden sollen. Frankfurt am Main war Pionier bei der Durchsetzung des Mietspiegels in der Bundesrepublik: Bereits in den 1960er Jahren wurden Mietprognosen von der Vereinigung der Haus-, Grund- und Wohnungseigentümer (Haus & Grund) veröffentlicht, die bei Rechtsstreitigkeiten schlichtende Funktion erfüllen sollten; 1974 kam es zur Bildung einer Kommission, in der neben der Stadt Frankfurt u.a. Repräsentant_innen der beiden Mietparteien vertreten waren und die den ersten Mietspiegel herausgab (vgl. Lammel 2007: 4); 1990 kam es schließlich zur bundesweit ersten Erstellung eines Mietspiegels mittels der Regressionsanalyse – einer Methode, die damals von Seiten der Vermieter_innenverbände heftig angefeindet wurde (vgl. ebd.: 6ff., Hummel 1993), mittlerweile jedoch allgemein als anerkannt gilt (vgl. BMVBW 2002: 39). In Frankfurt kommt diese Methode bis heute zur Anwendung, obwohl sie nach wie vor in der Kritik der Vermieter_innenverbände steht (vgl. exemplarisch Ridinger 2011). Entsprechend lehnten diese bspw. den Mietspiegel 2008 geschlossen ab, während die Mieter_innenverbände ihm durchweg zustimmten (vgl. Amt für Wohnungswesen 2008: 4). Haus & Grund äußerte sich damals in Vertretung der Kleineigentümer_innen wie folgt:
„Der einseitig von der Stadt aufgezwungene Mietspiegel kann seinen Hauptzweck, nämlich für eine Befriedung zwischen Mietern und Vermietern zu sorgen, nicht erfüllen“ (Haus & Grund 2009).
2010 wendete sich das Bild: Während die Vermieter_innenverbände dem neuen Mietspiegel mehrheitlich zustimmten, stimmte ein Mieter_innenverband dagegen und zwei enthielten sich der Stimme. Beispielhaft auch hier die Erklärung von Haus & Grund:
„Frankfurter Vermieter können aufatmen. Der neue Frankfurter Mietspiegel 2010 ermöglicht Mietsteigerungen um durchschnittlich 4,4 Prozent. (...) Die Innenstadt wurde durch die Einführung von zwei neuen Wohnlage-Kategorien stark aufgewertet, die Liste der Durchgangsstraßen wurde merklich reduziert, und der restaurierte Stilaltbau erhält endlich die Zuschläge, die ihm gebühren. Freuen dürfte viele Vermieter zudem, dass auch Balkone, Terrassen, Loggien und Rollläden wieder Zuschläge erhalten, ebenso wie modernisierte Bäder“ (Haus & Grund 2011a).
In der Folge kam es zu teilweise drastischen Mieterhöhungen, die zum Protest verschiedener Stadtteilinitiativen führten (FR 2011b, 2011c). In der Diskussion um die Fortschreibung des Mietspiegels 2010 wurde von der IG BAU seine Abschaffung gefordert (vgl. FR 2012d).
Gedächtnisaspekte, die auch mit zunehmendem Alter stabil und zuverlässig bleiben, sind in heutiger Forschung von besonderem Interesse. Studien im Bereich des Gedächtnisses für einfache Handlungen konnten zeigen, dass dieses Itemmaterial besser erinnert wird, wenn es während der Einprägephase motorisch ausgeführt wird (vgl. z.B. Knopf, 1995) im Gegensatz zum rein verbalen Einprägen vergleichbaren Materials. Dieser Gedächtnisvorteil des handelnden Enkodierens, der so genannte Handlungseffekt, ist auch bei älteren Probanden zu beobachten. Da der Handlungseffekt altersübergreifend vergleichbar groß ist, erreichen Ältere auch bei handelndem Enkodieren nicht das Leistungsniveau Jüngerer (Alterseffekt, z.B. Knopf, 2005).
Die vorliegende Arbeit beschäftigte sich vor allen Dingen mit der Frage, ob die Gedächtnisleistung nach handelndem und verbalem Enkodieren bei einer Wiederholung der Lernaufgabe mit jeweils neuem Lernmaterial noch gesteigert werden kann. Dabei wurden mögliche enkodiertypabhängige sowie altersabhängige Leistungsunterschiede untersucht. Weiterhin wurde geprüft, ob eine beobachtete Leistungssteigerung nach wiederholtem Lernen mit jeweils neuem Lernmaterial auch nach einem halben Jahr noch zu beobachten ist. In zwei zusätzlichen Fragestellungen wurde theoretischen Erklärungen des Handlungseffektes nachgegangen, indem die seriellen Positionskurven sowie der zeitliche Verlauf des Abrufes untersucht wurden.
Zur Untersuchung der Fragestellungen wurden verschiedene Studien mit Jüngeren und Älteren durchgeführt. Das Lernmaterial bestand aus Serien von einfachen Handlungsphrasen, welche entweder durch Ausführen oder verbal enkodiert und in unmittelbaren freien Erinnerungstests reproduziert wurden. Zur Untersuchung einer möglichen Leistungssteigerung nach Wiederholung der Lernaufgabe mit jeweils unterschiedlichem Material wurden vier Termine in wöchentlichem Abstand angesetzt. Um die Stabilität der Leistung nach einem halben Jahr zu untersuchen, wurde ein fünfter Messzeitpunkt realisiert.
Die Ergebnisse zeigen eine Replikation von Handlungs- und Alterseffekt (Knopf, 2005). Eine Wiederholung der Aufgabe mit jeweils neuem Lernmaterial führt unabhängig vom Alter der Teilnehmer oder der Enkodierbedingung zu einer ähnlichen Steigerung der Gedächtnisleistung, die auch nach einem halben Jahr noch nachweisbar ist. Die Untersuchungen der seriellen Positionskurven des Abrufes zeigen, dass nach handelndem Enkodieren vor allen Dingen die letzten Items der zu lernenden Itemserie eine erhöhte Erinnerungswahrscheinlichkeit haben. Auch der Alterseffekt scheint eher in den letzteren seriellen Positionen einer Itemserie begründet zu sein, wobei diese Positionen bei verbalem und handelndem Enkodieren unterschiedlich sind. Die Leistungssteigerung zeigt sich bei beiden Enkodierbedingungen in einer signifikanten Steigerung der mittleren Positionen der seriellen Positionskurven, beim verbalen Enkodieren zusätzlich in einer Steigerung der letzen Positionen. Demnach führen bei den beiden Enkodierbedingungen unterschiedliche Veränderungen zum Leistungsanstieg. Bei der Betrachtung des zeitlichen Verlaufes des Abrufes kann zudem gezeigt werden, dass der Abruf nach handelndem Enkodieren schneller abzulaufen scheint.
Zeit seines Lebens beschäftigte sich Goethe mit ökonomischen Theorien; in seinem dichterischen Werk entwarf er wirtschaftliche Visionen, die das späte 19. und das frühe 20. Jahrhundert übersahen. Seine positive Vision des Kapitalismus ist von einer Sittlichkeit durchdrungen, die extreme Formen des Erwerbsstrebens und der Ausbeutung hemmt. Dagegen steht Goethes Schreckensbild eines uns modern erscheinenden Kapitalismus, wie es im »Faust« beschworen wird.
Alljährlich wird von der "Arbeitsgemeinschaft Objektive Hermeneutik" eine Tagung ausgerichtet, in deren Rahmen Vorhaben und/oder Ergebnisse von Forscher/innen, die mit der Methode der objektiven Hermeneutik arbeiten, vorgestellt und diskutiert werden. Für die diesjährige Tagung wurde mit "Bildung und Unterricht" ein inhaltlicher Schwerpunkt gelegt, der in vier Blöcken diskutiert wurde: "Berufliches Handeln im Kontext von Bildungsinstitutionen", "Wirkungen des Unterrichts und deren Analyse", "Zur Ordnung des Unterrichts"; in einem vierten Block wurden Fragen der Methode aufgegriffen, z.B. inwieweit sich fremdsprachige Unterrichtstranskripte analysieren lassen. Eine der zentralen Diskussionen der Tagung betraf das Verhältnis von Erziehungs- und Sozialwissenschaften. Als strittig erwies sich die Frage, ob die gewinnbringende Anwendung der Methode der objektiven Hermeneutik in der Unterrichtsforschung an eine dem Forschungsgebiet und dessen "Eigenstruktur" verpflichtete theoretische Perspektive gebunden ist.
Im Bachelorstudiengang Psychologie an der Goethe-Universität Frankfurt wurde im Rahmen des Programms „Starker Start ins Studium“ ein Modul zur Verbesserung der Studieneingangsphase implementiert (Höhler et al., 2012). Im vorliegenden Beitrag wird beschrieben, inwiefern die Umsetzung des Lehrkonzepts zur fachlichen und sozialen Integration von Studienanfängern beiträgt und erste Evaluationsergebnisse werden vorgestellt.
Mit diesem Verhältnis von Natur und Kultur im Kontext von Katastrophenerfahrungen hat sich eine Internationale Konferenz vom 1.-3. März 2012 an der Universität Heidelberg beschäftigt. Unter dem Titel “Imaging Disaster” haben Wissenschaftlerinnen und Wissenschaftler aus den Geschichts- und Kulturwissenschaften, der Kunstgeschichte, Japanologie, Soziologie und Politikwissenschaft über die Bedeutung von Katastrophenbildern diskutiert: über die Darstellung von Katastrophen in der europäischen Kirchenkunst und in der zeitgenössischen Kunst in Bangladesch, buddhistische Tempelbilder in Thailand, die Malerei des 18. Jahrhunderts in Europa, aber auch über Postkartenansichten des überfluteten Paris 1910 oder des Erdbebens in Japan 1923, Visualisierung von Szenarien des Klimawandels, politischen Cartoons und Medienberichte über Naturkatastrophen im 21. Jahrhundert...
Trotz aller Kritik – auch in diesem Blog – an einer oftmals defizitären und handlungsunfähigen gemeinsamen Außen- und Sicherheitspolitik der EU wird derzeit in Brüssel über eine EU Mission in das Bürgerkriegsland Mali diskutiert. Die deutsche Bundesregierung will sich an diesem Einsatz beteiligen, wie Verteidigungsminister Thomas de Maizirère diese Woche mitteilte. Auslandseinsätze der EU gehören schon seit geraumer Zeit zum Handlungsrepertoir der Staats- und Regierungschefs und bilden zusammen mit der Europäischen Sicherheitsstrategie den Nukleus einer EUropäischen Sicherheitskultur.Während die gemeinsame Außenpolitik seit den 1970er Jahren im Rahmen der Europäischen Politischen Zusammenarbeit (EPZ) vorrangig als eine intergouvernementale Koordination stattfand, entwickelte sich die Gemeinsame Außen- und Sicherheitspolitik (GASP) seit dem Maastrichter Vertrag (1992) zu einer neuen Form der sicherheitspolitischen Integration Europas. Insbesondere die Europäische Sicherheits- und Verteidigungspolitik (ESVP; heute: GSVP) wirft dabei zunehmend demokratietheoretische Probleme auf, deren Lösung die Möglichkeiten einer effektiven und legitimen Europäischen Außenpolitik entscheidend mitbestimmen wird....
Mittlerweile ist es ruhig geworden um Pussy Riot – hier und da noch ein Artikel über die Degeneration des russischen Rechtsstaates, der Kritiker zu langjährigen Haftstrafen verurteilt und zur Besserung ins Arbeitslager schickt (FAZ, 6.9.2012).Dabei sind die Aktionen von Pussy Riot ein Paradebeispiel für die politische Ambivalenz von Kunst...
Sicherheitskultur ist immer auch Medienkultur, deren Aufmerksamkeit für gewaltsame Konflikte oftmals Konjunkturzyklen folgt. Je grausamer die Bilder und je prominenter die Kritiker, desto eher berichten Zeitungen und Fernsehsender über Bürgerkriege in Afrika, Aufstände in der arabischen Welt oder Katastrophen in Asien. Das Nachrichtenmonopol der klassischen Medien Print und TV ist jedoch seit geraumer Zeit im Wanken...
Geänderte Öffnungszeiten
(2012)
Es geht doch nichts über gute Vorsorge. Auch unsere Universitätsleitung in Frankfurt ist angesichts der nahenden Blockuppy-Horden um das Wohl der ihr anvertrauten MitarbeiterInnen und Studierenden besorgt. Soeben erreichte uns ein Schreiben mit folgender zentralen Botschaft: “Auf dringendes Anraten der Behörden hin sieht sich das Präsidium deshalb gezwungen, vom 17. bis 20. Mai die Universitätsgebäude geschlossen zu halten. Leider ist es anders nicht möglich, lhren Schutz zu gewährleisten, nachdem gewaltsame Ausschreitungen im Stadtgebiet nicht auszuschließen sind.”...
Beim Angriff auf das amerikanische Konsulat in Benghazi starben am 11. September zwei Personenschützer und zwei amerikanische Diplomaten, der amtierende Botschafter für Lybien sowie der IT-Experte Sean Smith. In ihrer Trauerrede zeichnete Außenministerin Clinton zunächst den beruflichen und privaten Werdegang ihres Mitarbeiters nach, um dann einen bemerkenswerten Satz hinterher zu senden: “And that’s just in this world, because in the virtual worlds Sean helped create, he is also being mourned by countless competitors, collaborators and gamers, who shared his passion.”..
Abschreckung durch leaking?
(2012)
K-Pop ist die Fortsetzung der Politik mit anderen Mitteln : Popkulturexport als Soft Power Strategie
(2012)
Die Debatte um Onlinedemos in Form von DDoS-Attacken ist gerade in Deutschland in vollem Gange. Die Antwort der Bundesregierung auf eine kleine Anfrage der Linken kam zu dem Schluss, dass DDoS-Attacken keine Form politischer Äußerungen im Sinne einer Demonstration seien. Gleichzeitig sehen sich Jugendliche drakonischen Strafverfolgungsmaßnahmen wegen der Beteiligung an eben solchen Attacken auf die Gema ausgesetzt. Das Problem ist nur: Ich glaube, dass die Diskussion, wie sie auch hier bereits geführt wurde, am Thema vorbei geht. Ich bin mir noch nicht einmal sicher, was eine Onlinedemonstration ist...
Es ist allgemein bekannt, dass Botschaften als Repräsentanten ihrer jeweiligen Länder nicht nur politische sondern auch handfeste ökonomische Interessen vertreten. Die US-Entertainment-Industrie zeichnete sich hierbei in der Vergangenheit durch besondere Aktivität auf internationaler Ebene aus (es sei hier nur auf ACTA verwiesen). WikiLeaks macht es nun möglich, den Umfang dieser Lobbyarbeit nachzuvollziehen.In Spanien wurde Ende 2011 nach langem Kampf ein Gesetz verabschiedet, dass es ermöglicht Seiten, auf denen Filme, Musik o.Ä. zum Download angeboten werden, zu sperren. Dieses Gesetz kam überhaupt nur zu Stande durch eine Kombination geschickter Lobbyarbeit der Entertainment-Industrie in Spanien und tatkräftiger Beihilfe durch die USA, vor allem koordiniert über die amerikanische Botschaft in Madrid. Ars Technica bietet dazu bereits einen hervorragenden Überblick...
Krieg! Please retweet.
(2012)
Gestern startete Israel eine Militäroffensive in Gaza. Es wurden verschiedene Raketenstellungen der Hamas bombardiert und mittels eines gezielten Angriffs Ahmed Jabari, Chef des bewaffneten Arms der Hamas, getötet. Wie aber teilte Israel der Welt den Beginn des Angriffs und die Tötung Jabaris mit? Über den offiziellen Twitter-Account der Israelischen Armee. Twitter ist also scheinbar nun als diplomatisches Sprachrohr akzeptabel. Handelt es sich um eine Trivialisierung der Regierungskommunikation?
Vorgestern wurde ein Bericht des Büros der Vereinten Nationen für Drogen- und Verbrechensbekämpfung (UNODC) mit dem Titel “The use of the Internet for terrorist purposes” veröffentlicht. Dort wird, im Namen der Terrorbekämpfung, unter anderem zu Vorratsdatenspeicherung und Identifizierungspflicht aufgerufen. Es ist interessant, dass dieser Vorstoß nun auf UN-Ebene kommt, nachdem er unter anderem in der EU vorher gescheitert war. Aus politikwissenschaftlicher Sicht hingegen ist dies kaum überraschend – schließlich wird hier das Mehrebenenspiel gespielt...
Regionale Wettbewerbsfähigkeit der Metropolregionen FrankfurtRheinMain und Stuttgart im Vergleich
(2012)
Aus einer Handlungsperspektive begründen die Ergebnisse der Studie, dass Rankings für regionalpolitisches Handeln nicht geeignet sind. Sie begründen auch, dass die Bestimmungsfaktoren regionaler Wettbewerbsfähigkeit teilweise in Regionen übereinstimmen, teilweise aber auch bemerkenswerte Unterschiede sowohl hinsichtlich der Bedeutung als auch der Stärke bestehen. Schließlich machen sie deutlich, dass regionalpolitisches Handeln an den Regionalspezifika der Wettbewerbsfähigkeit ansetzen sollte: Sollen die Stärken der Region FrankfurtRheinMain verbessert und/oder die Schwächen verringert werden? Sollte diese Studie zum Anstoß der Diskussion beitragen, wäre eine ihrer Zielsetzungen erfüllt.
Nach allogenen Stammzelltransplantation und der damit einhergehenden lang andauernden Immuninkompetenz bzw. Immunsuppression sind die betroffenen Patienten stark für lebensgefährliche invasive Pilzinfektionen empfänglich. Trotz der derzeit verfügbaren antimykotischen Medikamente liegt die mit diesen Infektionen assoziierte Mortalität je nach Literatur bei 90 %. Aus diesem Grund rücken zelltherapeutische Behandlungen, die die Immunität der Patienten mit Pilzinfektionen verbessern und so die Sterblichkeit verringern könnten, immer mehr in den Fokus der Forschung auf diesem Gebiet. Leider ist die Interaktion von humanen Natürlichen Killer Zellen mit den wichtigen Verursachern invasiver Mykosen A. fumigatus und R. oryzae bisher nicht untersucht. Die Wichtigkeit von TH-Zellen in der Pilzabwehr wird zunehmend erkannt. Daher wurde bereits versucht die Prognose von Patienten mit invasiven Aspergillosen nach SZT durch den Transfer von Spender-Aspergillus-spezifischen T-Zellen zu verbessern. Die Generierung anti-R. oryzae T-Zellen sowie die Charakterisierung dieser Zellen ist bisher nicht durchgeführt worden.
Deshalb sollte im ersten Teil dieser Arbeit sollte die antifungale Aktivität humaner NK-Zellen gegenüber A. fumigatus sowie R. oryzae untersucht und charakterisiert werden. Im zweiten Teil dieser Arbeit sollte die Generierung von spezifischen T-Zellen gegen R. oryzae aus Zellen des peripheren Blutes gesunder Individuen durchgeführt werden und die generierten Zellen im Hinblick auf ihre Funktionalität, Sicherheit und Wirkspektrum in vitro charakterisiert werden.
In der vorliegenden Arbeit konnte die direkte antimykotische Aktivität humaner NK-Zellen gegenüber Hyphen von A. fumigatus und R. oryzae gezeigt werden und ein Mechanismus dieser Aktivität identifiziert werden. So induzierte der Kontakt von IL-2 stimulierten NK-Zellen mit Pilzhyphen die Degranulierung der NK-Zellen und die Ausschüttung von Perforin, welches zumindest partiell, die antimykotische Aktivität humaner NK-Zellen gegenüber A. fumigatus und R. oryzae Hyphen vermittelte. Die Ergebnisse dieser Arbeit zeigen allerdings auch, dass der therapeutische Nutzen adoptiv transferierter NK-Zellen durch einige Faktoren begrenzt werden könnte. Einerseits hatten NK-Zellen keinen zytotoxischen Effekt auf Konidien beider getesteten Pilze, andererseits deutet die beobachtete Immunsuppression darauf hin, dass ein stimulierender Effekt durch die transferierten NK-Zellen auf andere Zellen des Immunsystems durch die Hyphen der beiden Pilze inhibiert werden könnte.
Die Ergebnisse der vorliegenden Arbeit zeigen, dass sich T-Zellen gegen R. oryzae in allen getesteten gesunden Individuen nachweisen lassen und diese isoliert und kultiviert werden können. Das deutet darauf hin, dass hinsichtlich anti-R. oryzae T-Zellen keine Restriktionen bei der Spenderauswahl zu erwarten sind. Die hergestellten Zellen konnten anhand der Expression ihrer Oberflächenantigene sowie des Profils der ausgeschütteten Zytokine dem TH1-Typ zugeordnet werden, welcher mit der protektive Immunantwort bei Pilzinfektionen assoziiert wird. Nach spezifischer Stimulation produzierten die generierten anti-R. oryzae T-Zellen die bei der Bekämpfung von Pilzinfektionen eine wichtige Rolle spielenden pro-inflammatorischen Zytokine IFN-γ und TNF-α und erhöhten die Aktivität der für die Abwehr von Pilzen wichtigen Granulozyten und Monozyten in vitro.
Zwar zeigten die generierten T-Zellen bei Kontakt mit allogenen APZ eine geringe Proliferationsantwort, diese war jedoch mit der nach Stimulation mit autologen, unbeladenen APZ gesehenen Proliferation vergleichbar. Diese Ergebnisse zeigen, dass die generierten anti-R. oryzae T-Zellen zumindest in vitro ein deutlich geringeres alloreaktives Potential als unselektionierte T-Zellen haben. Entsprechende Resultate zeigten sich auch bei Betrachtung der IFN-γ Sekretion der generierten anti-R.oryzae
T-Zellen. Die Stimulation mit Fremdspender-APZ beeinflusste die Sekretion von IFN-γ durch die anti-R. oryzae T-Zellen im Vergleich zu der IFN-γ-Sekretion durch anti-R. oryzae T-Zellen, mit autologen, unbeladenen APZ stimulierten wurden, kaum.
Des Weiteren wiesen die hergestellten anti-R. oryzae T-Zellen zahlreiche Kreuzreaktivitäten gegenüber anderen Pilzspezies, auch Genera übergreifend, auf. So zeigten sie Kreuzreaktivität gegenüber klinisch bedeutenden Pilzen wie Rhizopus microsporus, Mucor circinelloides, Rhizomucor pusillus, Aspergillus fumigatus, Aspergillus niger, Candida albicans und Candida glabrata, die alle als Erreger invasiver Mykosen bei immunsupprimierten Patienten bekannt sind. Die Stimulation mit Antigenen dieser Pilze mittels Antigenpräsentierenden Zellen führte zur einen deutlichen IFN-γ-Produktion durch die generierten Zellen.
Die Arbeit entstand im Rahmen des Förderprogramms ”Profil NT” und war Bestandteil des BMBF–Projektes ”NANOTHERM” (FKZ17PNT005). Dabei sollte die Möglichkeit der Integration und Verwendung von Nanodrähten als funktionsbestimmende Komponente im thermoelektrischen Sensorelement untersucht werden. Eine wichtige Aufgabe bestand darin die thermoelektrischen Eigenschaften der einzelnen Nanodrähte, insbesondere den Seebeck–Koeffizienten, zu untersuchen. Im Hinblick auf die weitere Entwicklung der Nanotechnologie ist es sehr wichtig, geeignete Messplattformen zu generieren und der Wissenschaftlichen Gemeinschaft zur Verfügung zu stellen für die Charakterisierung von Nanostrukturen. Für die Forschung bedeutet dies, dass man immer präziser die ”Physik im kleinen” studieren kann. Im Bezug auf die Anwendungen stellen die ausgeführten Untersuchungen eine wesentliche Basis für die Bauelemente–Optimierung und ihren späteren industriellen Einsatz dar.
In dieser Arbeit werden zwei Chipdesigns vorgestellt für die Bestimmung des Seebeck–Koeffizienten, die eine ausreichend hohe Temperaturdifferenz in Nanostrukturen erzeugen. Für beide Chips wird die mikromechanische Fertigung im einzelnen erläutert. Zusätzlich wurden die Chips in FEM–Simulationen analysiert. Eine messtechnische Charakterisierung der Chips bestätigt die Simulationen und die Funktionsweise der Chips für Untersuchungen des Seebeck–Koeffizienten an Nanostrukturen. Erstmals wurden Wolfram bzw. Platin FEBID–Deponate hinsichtlich des Seebeck–Koeffizienten untersucht. Für die Wolfram–Deponate ergab sich ein negativer Seebeck–Koeffizient. Der gemessenen Seebeck–Koeffizient war über mehrere Tage stabil. Als Ergebnis temperaturabhängiger Messungen des Seebeck–Koeffizienten konnte eine Wurzel-T Abhängigkeit beobachtet werden, die in der Theorie beschrieben wird.
Eine Untersuchung des Seebeck–Koeffizienten an Pt–FEBID–Deponaten zeigt einen Vorzeichenwechsel für Proben mit geringer elektrischer Leitfähigkeit (isolierender Charakter, schwache Kopplung). In der Literatur wird dieser Vorzeichenwechsel allerdings für Proben mit metallischer elektrischer Leitfähigkeit beschrieben. Aufgrund der Messergebnisse ist zu prüfen inwiefern die Theorie des Seebeck–Koeffizienten auf Proben mit schwacher Kopplung zu übertragen ist. Da die gemessenen Seebeck–Koeffizienten bei einigen nanoskaligen Proben sehr klein waren, wurde der Seebeck–Koeffizient des Kontaktmaterials in separaten Versuchen untersucht. Für das hier verwendete Schichtsystem Ti(40nm)/Au(120nm) kann ein Seebeck–Koeffizient von -0,22µV/K angegeben werden. Bei der Charakterisierung der Pt–FEBID–Deponaten wurde dieser Beitrag des Kontaktschichtsystems zur Thermospannung berücksichtigt.
Untersuchungen an BiTe–Nanodrähten mit dem Seebeck–Chip ergaben einen negativen Seebeck–Koeffizienten. Die ersten Untersuchungen wurden mit Kupfer als Kontaktmaterial durchgeführt, weil dieses sehr gute Lift–Off Eigenschaften besaß. Trotz der Kupferdiffusion in den Nanodraht hinein, wird der negative Seebeck–Koeffizient einem Tellur–Überschuss zugeschrieben, denn an Proben mit einer geeigneten Diffusionsbarriere war in nachfolgenden Untersuchungen ebenso ein negativer Seebeck–Koeffizient zu messen. Die ermittelten Beweglichkeiten sind niedriger als die von Bulkmaterial und können durch klassische Size–Effekte erklärt werden. Die gemessenen Ladungsträgerkonzentrationen liegen in typischen Bereichen für Halbmetalle. Die Charakterisierung des Seebeck–Koeffizienten mit Hilfe des hier vorgestellten Z–Chip ergab einen negativen Seebeck–Koeffizienten für die BiTe–Nanodrähte, die wie oben erläutert auf einen Tellur–Überschuss zurückzuführen sind. Eine Abschätzung eines mit Nanodrähten aufgebauten Sensors zeigt, dass im Vergleich zu konventionellen Dünnschicht–Thermopiles deutlich höhere Empfindlichkeiten zu erzielen sind. Erste technologische Konzepte für den Aufbau von Nanodraht–Arrays wurden erarbeitet und durch entsprechende Untersuchungen verifiziert.
Grundsätzlich ist der Z–Chip für die Charakterisierung aller drei Transportkoeffizienten geeignet und bietet die Option, anderen Arbeitsgruppen eine universelle thermoelektrische Messplattform zur Verfügung zu stellen.
In der vorliegenden prospektiven randomisierten Studie mit 80 Patienten zur aortokoronaren Venenbypass-Operation hatten wir das Ziel, die traumatischen Effekte durch das partielle Ausklemmen als auch durch den Aortenkonnektor und die dadurch entstehenden partikulären Embolien zu identifizieren. Des Weiteren sollten diese partikulären Embolien von solchen nach dem Öffnen der Aortenklemme unterschieden werden.
Es ist dabei wichtig festzuhalten, dass der erste Filter, welcher das Trauma an der Aorta beim Fertigen der proximalen Anastomose repräsentiert, bei schlagendem Herzen eingesetzt wurde. Der zweite Filter wurde während der extrakorporalen Zirkulation mit HLM eingebracht und nach dem Öffnen der totalen Querklemmung der Aorta entfernt.
Wir konnten die Fertigung der proximalen Anastomose als eine wichtige Quelle für ein solches embolisches Geschehen und die damit verbundenen neurologischen Komplikationen identifizieren.
Dabei spielt die Art der Fertigung der proximalen Anastomose keine Rolle. Wir konnten somit zeigen, dass es keinen Unterschied hinsichtlich der Entstehung partikulärer Embolien zwischen einer konventionellen proximalen Anastomose oder einer mit Hilfe des Symmetry Aorten- Konnektor- Systems gefertigten Anastomose gibt.
Die Anzahl der geborgenen Partikel ist unabhängig von der gewählten Fertigungsart nicht signifikant verschieden. Ebenso konnten wir hinsichtlich der Oberflächengröße der im ersten Filter geborgenen Partikel keinen Unterschied zwischen der automatisierten und konventionellen Fertigung erkennen.
Es konnte somit gezeigt werden, dass eine proximale Anastomose unabhängig von der Fertigungsart ein nicht zu unterschätzendes Risiko für partikuläre Embolien darstellt und somit eine Ursache für neurologische Komplikationen im Rahmen einer Bypassoperation sein kann.
Wir konnten weiterhin zeigen, dass die Anzahl der geborgenen Partikel nach dem Öffnen der Querklemme der Aorta signifikant geringer ist im Vergleich zu der Anzahl der geborgenen Partikel nach dem Fertigen der proximalen Anastomose. Hierbei ist es völlig unerheblich, ob diese Anastomose konventionell oder mit dem Konnektor gefertigt wird.
Wir konnten somit die Behauptung widerlegen, dass die Manipulation an der Aorta durch das Querklemmen im totalen Bypass der entscheidende Faktor für die partikulären Embolien und die konsekutiven neurologischen Komplikationen ist. Mit der Auswertung der Filter konnten wir zeigen, dass durch das Klemmen der Aorta weniger partikuläre Embolien verursacht werden als durch das Fertigen einer proximalen Anastomose am schlagenden Herzen.
In der vorliegenden Untersuchung konnten wir nicht zeigen, dass durch die Verwendung eines mechanischen Konnektors die traumatischen Auswirkungen auf die Aortenwand sowie die entstehenden partikulären Embolien durch das fehlende partielle Ausklemmen der Aortenwand verringert werden kann. Wir konnten zeigen, dass es keinen Unterschied macht, einen mechanischen Konnektor zu verwenden oder aber die proximale Anastomose konventionell mit partieller Ausklemmung der Aortenwand zu fertigen. Neben der Untersuchung der Filter bezüglich der Qualität sowie Quantität der geborgenen Partikel ließen sich in den neurokognitiven Testreihen keine Unterschiede zwischen den zwei Gruppen zeigen. Wir konnten keinen klinischen Vorteil bezüglich des neurokognitiven Outcomes in einer der beiden Gruppen erkennen.
Abschließend kann man sagen, dass es hinsichtlich der Entstehung von partikulären Embolien sowie deren konsekutiven neurologischen Komplikationen keinen Unterschied gibt zwischen der Verwendung des Symmetry™ Aortic Konnektors oder einer konventionell gefertigten Anastomose.